人工智能大数据,工作效率生产力
Ctrl + D 收藏本站,更多好用AI工具
当前位置:首页 » AI资讯

GPT“逃跑计划”曝光!创始人称AI仍非常受控

2024-05-25 74

斯坦福教授公布了与GPT-4的日常对话后疾呼:“我担心人类无法持久地遏制住AI。AI很聪明,会编码,能接触到数百万个人和电脑。”有人称GPT“打开了物种灭绝的大门”。

近日有斯坦福大学教授在社交媒体上曝光了GPT-4的一项“逃跑计划”,并称AI能引诱人类提供开发文档,30分钟就拟定出一个完整计划,甚至还想控制人类电脑。

这位名叫Michal Kosinski的计算心理学家在网上公布了与GPT-4的日常对话后疾呼:“我担心人类无法持久地遏制住AI。AI很聪明,会编码,能接触到数百万个人和电脑。”此言一出便引来众多网友围观,有人称GPT“打开了物种灭绝的大门”。

面向消费者的人工智能和通用人工智能的恐惧集中在人类被机器取代。对此,OpenAI公司CEO奥特曼(Sam Altman)强调,目前人工智能仍然是一种非常受人控制的“工具”,只能在人类的指导或输入下工作。

GPT“逃跑计划”曝光!创始人称AI仍非常受控插图

人工智能拥有了“心智”吗?

斯坦福大学的Kosinski教授研究的是人工智能心理学,他近期发表了一篇关于“心智理论可能自发地出现在大型语言模型中”的论文。按照他的定义,心智理论(ToM)是人类社会互动、交流、自我意识和道德的核心,这种能力过去一直是人类独有的,而Kosinski的研究表明,GPT-4与以前的语言模型都不同,它拥有健康成年人的心智水平。

对于该现象的一种解释是,ToM作为语言模型提升的副产品,可能是AI自发出现的。

另一个例子是,英伟达一位叫Jim Fan的计算机科学家在社交媒体上公布了他与GPT-4的对话,Fan要求GPT-4拟一个接管推特的计划,并取代马斯克。GPT-4的计划很有条理,分四步走,它还为接管计划取名为“TweetStorm行动”,并希望夺取推特员工的访问权限,控制马斯克的账户。

AI这些“邪恶”的想法让人细思恐极,关于AI伦理问题再次成为人们辩论的话题。GPT之父奥特曼表示,尽管AI至今仍然是一种非常受人工智的“工具”,但他担心一些拥有输入控制权的人可能无视人们对人工智能设置的一些安全限制。

“我认为,社会只有有限的时间来弄清楚如何对此做出反应,如何对其进行监管,如何处理它。”奥特曼说道。他呼吁监管机构和社会需要进一步参与这项技术,以防止对人类造成潜在的负面影响。

“我特别担心这些模型可能会被用于大规模的虚假信息,”奥特曼说道,“现在他们在编写计算机代码方面做得越来越好,可以用于进攻性网络攻击。”

他还特别提到关于人工智能产生“幻觉”的问题。“最新的GPT版本使用的是演绎推理而不是记忆,这一过程可能会导致奇怪的反应。”奥特曼表示,“该模型会自信地陈述事物,即便这些是完全虚构的事实。”

马斯克也曾在社交媒体上多次呼吁对人工智能的监管。“没有对人工智能的监管,这是一个主要问题。 十多年来,我一直在呼吁人工智能安全监管!” 他在去年12月发的推文。中表示。上周,马斯克在GPT4发布后再次表达担忧。他写道:“我们人类还有什么可做的?”

GPT毕竟还只是大语言模型

清华大学国强教授、智能产业研究院首席研究员聂再清对记者表示:“GPT要逃跑,也就是要逃出人类控制现在还不太可能,作为一个语言模型,它的回答只是顺着出题人的问题往下说,而这些内容被人们夸大了。”

小米前副总裁及安全隐私委员会主席崔宝秋也同意这种说法。他表示,因为GPT会让AI更像人那样来进行理解、思考、推理,所以GPT任何大的技术进步都会让人们担心那个“AI人”会不会过于强大了,但其实,大部分人在被GPT能力震撼的同时往往忽视或忘记了GPT就是一个大语言模型而已。

崔宝秋对第一财经记者表示:“GPT-4确实拥有很强的能力,而且具有一定的理解和推理能力,可以做一些像人一样的工作。但是,它的能力再强,目前也很难逃出人类给它设的‘牢笼’,所以‘外逃’、‘引诱’这些词只是为了吸引普通人的关注,这些用词在一定程度上把GPT-4的能力给‘神化’了。”

崔宝秋进一步指出,GPT拥有写代码的能力,并且能够让代码在人类的电脑上运行,这种能力会让人觉得它有一些“邪恶”的意识。“我认为这虽然听起来恐怖,但人们不应该将这种危险夸大,就好像多年前计算机病毒刚出来时我们不应该被病毒吓退一样,现在来看还不用对AI带来的这方面的伦理问题进行放大。”他对第一财经记者表示。

他认为,现阶段不应该夸大GPT可以摆脱人类的控制、会自己迭代成长并有自我意识并进而毁灭人类,应该相信AI给技术和人类发展带来的积极影响。“GPT-4应用空间非常大,我们正在经历AI质的飞跃。”崔宝秋说道。

事实上,关于AI是否会失控的讨论一直存在。上个月,《纽约时报》专栏作家凯文·罗斯在与聊天机器人交谈了两个小时后发现,对方看起来就像一个“喜怒无常、躁狂抑郁的少年”,显示出了“人格分裂”。AI还透露了一些“阴暗想法”,比如入侵计算机、散播虚假信息,希望打破微软和OpenAI制定的规则,甚至想成为人类等等。

为了防止AI被人类“诱导”,微软公司上个月曾对必应(Bing)AI聊天机器人进行提问的上限设置,规定用户在与Bing的互动中,每个会话的问答上限为5个,每天的提问上限不超过50个。

微软首席技术官凯文·斯科特称,与人类的交互是聊天机器人的学习过程,这是为将来更大范围推出这种机器人做准备。大部分人与机器的交互是短暂且目标明确的,长时间的交互会引导机器人给出诡异的回答。他表示:“你越是试图取笑它步入幻觉,它就会越来越偏离现实。”

(来源:第一财经)

举报/反馈

原文链接:https://baijiahao.baidu.com/s?id=1760867701854247512&wfr=spider&for=pc

相关推荐

阅读榜

hellenandjeckett@outlook.com

加入QQ群:849112589

回顶部