文|林炜鑫
编辑|苏建勋
来源|智能涌现(ID:AIEmergence)
封面来源|IC photo
多伦多当地时间6月22日,“AI教父”、Meta首席AI科学家杨立昆现身芒克辩论会,再次炮轰ChatGPT:“五年内,就没人用 ChatGPT 了。”他认为,ChatGPT并没有真正理解现实世界,只是纯粹的文本训练,“而人类的大部分知识与文本或语言无关。”
这个大胆的预言立刻引起大量关注。
杨立昆参加的这场芒克辩论会,同样以“人工智能构成了生存威胁”为主题。在辩论过程中,杨立昆坚称,“人工智能带来厄运的预言,只不过是一种新的蒙昧主义”。
杨立昆认为人们担心的是未来的AI一旦打开,就会在几分钟内接管世界,“这太荒谬了”。对AI的这种恐惧根植于人类心理学,暂时没有科学证据。
杨立昆在辩论会现场
针对“AI威胁论”,硅谷的讨论已近白热化,尚未达成共识,这场辩论会是该议题的一个延续,在外网并未激起太大声浪。有趣的是,杨立昆在辩论时顺带抨击ChatGPT的短视频,成了国内社媒上的热点。
这并非杨立昆第一次吐槽ChatGPT。6月中旬在巴黎的Viva Tech会议上,杨立昆认为,ChatGPT这样的AI,还不如狗聪明。4月,他在一档直播说,ChatGPT不是AI领域的实际研发,“是一种产品”。
他对ChatGPT的质疑,首先来源于技术层面并无特别创新,理由是其他公司拥有类似的技术,OpenAI并不先进,只是“(把技术)组合得很好”。
也许是引起争议过大,杨立昆后来在推特解释,他并非批评OpenAI这家公司,只是希望“纠正”公众和媒体的看法——ChatGPT是难以置信的创新,超越了其他公司的产品。
过去这几个月,杨立昆始终坚持批评那些夸大,甚至吹嘘ChatGPT所使用的基础技术能力的人。
在他看来,在大语言模型上训练的AI系统,仍然非常受限,因为它们纯粹是文本训练,无法学会人类在现实世界里的真正经验。他曾说过,现在的AI能通过美国的律师资格考试,却无法使用洗碗机,而一个10岁的孩子可以“在10分钟内学会”。
ChatGPT泡沫可能要破
ChatGPT发布以来,全球有超过一亿人使用过,其中还有不少人每月为ChatGPT Plus掏出20美元订阅。然而,近期在网上已有不少用户抱怨,GPT4比GPT3.5要更糟糕。
“两周前,GPT4是世界上最伟大的写作助理,前不久,它变得非常平庸,”一位用户写道,“我认为他们削减了处理能力或使其不那么智能。”
即便OpenAI的研究人员出来辟谣,表示“大模型是静态的”,不会削弱性能,也无法使人完全信服。
近期一个数据引起广泛注意。根据SimilarWeb数据,ChatGPT的访问量今年前三个月连续猛涨,在4月出现放缓,环比增长率从3月的55.8%掉到12.6%,5月继续下滑,只剩下2.8%。据预测,6月可能出现负数。
多国的研究报告显示,ChatGPT的使用率并没有想象中的高,至少还有四成以上的人“没听说”或“未使用”。ChatGPT也留不住那些丧失了新鲜感的普通用户。
准确度是赶走用户的一大原因。ChatGPT一本正经地说胡话,不仅给用户造成不必要的麻烦,也限制了ChatGPT的应用场景。直到今天,OpenAI也没拿出行之有效的解决方案。
杨立昆不止一次表示,ChatGPT背后的生成式AI已经走在死胡同。他的断言未必客观,但从资本市场的反应来看,大模型确实在降温。
美国银行分析师迈克尔·哈特内特撰文表示,人工智能目前正处于“婴儿泡沫”中。目前人工智能的大热,令他回想起21世纪初那场互联网泡沫。他警告,人工智能这一泡沫可能正要破灭,理由是尽管美股表现亮眼,企业和股东们都在大幅减持股票。
杨立昆对ChatGPT直言不讳的批评,迎合了不少冷眼旁观AI浪潮的人。一位Reddit网友认为,杨立昆可能是对的,“萨姆·奥特曼已经很清楚,GPT正面临着回报递减的处境,最终需要一个新的东西”。
骂到最后,只是屁股决定立场?
纵然ChatGPT暴露出很多问题,杨立昆屡屡公开炮轰,久了也会引起一些人的反感。
一位Reddit网友发帖称,杨立昆是在纠正公众的误解,但必须要说,他对竞品和初创公司的一夜成名显得不够大气。归根结底,AI研究“在到达隧道尽头之前,是无用的,99%的研究论文只是对最先进的技术进行微小的更新”,“发明内燃机和把它放进车里,一样重要”。
芒克辩论会结束后,有人在推特问杨立昆:“你在辩论中说过,在ChatGPT发生之前,你就预言了它。你真的知道ChatGPT要来吗?”
杨立昆回复,Meta在ChatGPT之前就推出过两个对话机器人,一个叫BlenderBot 3,另一个叫Galactica。然而,Galactica上线后因为出现一些错误回答(现在叫“幻觉”),受到严厉批评。Meta最后下线了Galactica。
他忿忿不平的是,ChatGPT与Galactica一样会胡说八道,大众却选择了宽容。
在AI领域,杨立昆和Meta起了大早,却赶了晚集。早在2013年他便加入Meta从事人工智能研究。多年来,他的团队已经将AI技术应用到公司旗下的社交产品中,尤其是2016年起,Facebook陷入假新闻风波,AI技术便用于辅助平台对虚假信息的管控。
杨立昆坚称,Meta和Google没有抢先发布像ChatGPT的产品,“不是因为他们不能,而是因为不会这么做”。
说白了,大公司更加忌惮社会舆论。考虑到生成式AI相对轻松地绕过Meta的安全机制,可能被用于传播虚假和有害信息,Meta担心过早发布生成式AI会再次把公司推进舆论的深渊。
这些顾虑一度让Meta内部的AI战略蒙上阴影。2022年,至少有三分之一的AI研究员,对公司在AI领域的未来感到怀疑,因此选择离开Meta。OpenAI于11月发布ChatGPT后,更多员工离开了。
OpenAI的成功显然刺激了杨立昆和Meta。今年2月,Meta推出一项名为LLaMA的大模型技术,并且向特定人员开源其代码,允许开发者用LLaMA训练属于自己的聊天机器人。上个月,Meta发布了首个“类人”AI模型I-JEPA,号称比生成式AI更准确和高效,一如既往,相关的论文和代码都开源了。
OpenAI选择了闭源。杨立昆再次针锋相对:“开放会让研究进展更快,有一个更有活力的生态系统,每个人都能做出贡献。”
扎克伯格不久前公开赞扬了公司在人工智能方面的进步。但别忘了,今年2月份,扎克伯格将2023年称为“效率之年”,Meta裁掉了超过11000名员工,又陆续关闭了几个项目。
杨立昆吐槽竞品并为自家产品站台无可厚非,然而商业竞争终究看的是结果,人们也期待号称“AI教父”的杨立昆最终能交出怎样的答卷。
36氪旗下AI公众号
特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。
原文链接:http://k.sina.com.cn/article_1750070171_684ff39b019018rcj.html