人工智能大数据,工作效率生产力
Ctrl + D 收藏本站,更多好用AI工具
当前位置:首页 » AI资讯

出乎预料的发展?陈小平:人工智能正引发第一次重大社会实验

2023-09-18 284
出乎预料的发展?陈小平:人工智能正引发第一次重大社会实验插图

✪ 陈小平

中国科学技术大学

【导读】自2022年底横空出世以来,ChatGPT快速火爆全球,引发前所未有的对人工智能的热议与思考。人们惊讶于人工智能发展之迅速,ChatGPT懂人话、有智能、“快成精了”,与人还有区别吗?未来,将对人类社会产生哪些重大影响?

本文尝试对ChatGPT背后的技术原理、工作原理及相关人工智能思想,给出尽可能通俗性的解析。作者指出,生成式人工智能的技术核心和成功关键是大型语言模型(简称“大模型”)。基于实例性模型+关联度预测的新思路,大模型首次跨越理论与应用的鸿沟,一定范围内让AI的自然语言交互能力达到人类中等水平。与简单的功能模仿不同,大模型有着原理模拟的能力,即发现人的智力功能所遵循的科学原理,然后模拟这些原理。那么,将来会不会通过原理模拟,制造出与人原理相同而且比人更强大的AI?

作者指出,大模型和一切机器都没有生命,这是机器与人的根本区别;目前大模型的研究内容也并不包括生命冲动和体验的模仿。人类和AI将保持各自的独特性,沿着各自道路协同演进,但仍会出现职业竞争,引发其他重大社会问题,比如新的伦理治理挑战、新的公共安全隐患、对服务业和教育的新影响等。后续发展的重点已从技术转移到充满挑战的应用和治理,这是人工智能引发的第一次重大社会实验。透过大模型重新认识人工智能,重新思考AI时代的社会治理,具有重大现实意义。

本文原载《文化纵横》2023年第3期,原题为《大模型:人工智能思想及其社会实验仅代表作者本人观点,供诸君参考。

大模型带动的生成式人工智能正在引发一场重大社会实验。本文对大模型的工作机理、主要特性以及大模型背后的人工智能思想,尝试给出尽可能通俗的原理性解析,以帮助解答下列问题:大模型为什么会说人话?为什么大模型让人觉得它懂人话、有智能?大模型“快成精”了,与人还有区别吗?大模型应用的不确定性、机遇和挑战是什么?人类注定将被AI超越,从而降级为低配版AI吗?

大模型底层原理——基于关联度的预测

大型语言模型(简称“大模型”)是生成式人工智能的技术核心和成功关键。大模型的基本目标是:说人话、懂人话、能回答问题,但不保证正确。其中,说人话是生成式人工智能最重要的目标,对应的设计思想是:从人类规模语料中自动提取关键性语言痕迹,并用于语言的自动生成。无论是人类的语言习惯,还是人类智力功能在语言中的运用,都会留下语言痕迹,这些痕迹都保留在文本形式的语料中。

大模型利用的语言痕迹是“语元关联度”。大模型技术中,语元(token)指的是字、词、标点符号或者其他符号串(如字符编码中的字节)。语元关联度是语料中出现的语元之间的关联强度。例如,“我”和“们”之间的关联度很高,“我”和“门”之间的关联度很低。语元关联度可以从语料中统计出来,所以满足自动提取的要求。

当一个大模型提取了大量语元关联度之后,就可用于预测下一个出现的语元、下下个出现的语元……,直到生成完整的回答。例如,假设对话中已经出现了“我”,那么根据大模型中保存的语元关联度可以做出预测,下一个出现的语元是“们”的可能性远远高于“门”,于是大模型可以选择“们”。基于语元关联度的预测是大模型技术的底层原理。

不过,只利用相邻语元的关联度进行预测,错误率太高。其实大模型可以同时利用不相邻甚至远距离语元之间的关联度(称为“远程关联度”),从而大大降低预测的错误率。例如,假设大模型与用户进行了多轮对话之后,用户说:“你觉得小米怎么样?”大模型如何处理这句话中的“小米”?用户指的是一种手机,还是一种谷物,还是别的什么?这时大模型就回看已经说过的话(最多可回看4000多个语元),从中寻找有用的远程关联度。如果之前的对话中出现了语元“手机”,而大模型中一定会有“手机”与“小米”(代表小米手机)之间的关联度,以及小米手机与其性能评价之间的关联度,所以这些关联度被激活,用于当前的对话,从而选用小米手机性能评价的语元来回答问题。

但是,如果之前的对话中同时出现了“谷物”,那么大模型就会类似地激活与“小米”(代表谷物小米)之间的关联度,这些关联度让大模型用谷物小米的性能评价作为回答,于是出现了两种可选的回答,发生了冲突。基于语元关联度的预测是一种统计性机制,只能用统计性策略从冲突的回答中选出一个相对合理的,但理论上无法保证选择的正确性。

值得注意的是,正如这个例子表明的那样,大模型只是利用关联度组织语言表达,并不像人一样理解话的含义,无论是用户的话还是自己的话。大模型追求的是让回答令人满意,只要做到这一点,用户自然会认为大模型“听懂”了人话,因为人都是听懂了才可以正确回答的。可是大模型是AI,不是人。AI用自己的原理,用人的数据、人的语言习惯、按人的要求为人服务。

大模型基础特性——实例性模型

大模型是一种实例性模型,即由大量实例(语元和语元关联度)构成的模型。实例性是大模型的基础特性,很大程度上决定了大模型的行为和性能。大模型的主要挑战如真实性、可靠性、可解释性、隐私性等,从根本上说都源于实例性。

作为对比,科学技术中占主导地位的历来是概括性模型,即由概括性规则构成的模型,这是因为概括性规则可以表达一般规律,而实例则是对个别现象的描述。科学研究通常为每一个学科找出一组基本原理,以解释学科内的各种现象,从而使得整个学科是可解释的。

人工智能的强力法也是基于概括性模型的,以概括性规则表达领域的基本原理,通过逻辑推理导出问题的解。人工智能实践表明,对任何真实的应用领域而言,发现其基本原理的难度是超乎想象的。其实这一点也不奇怪,艰难曲折的科学史就是一部基本原理的发现史。

实例性模型提供了AI建模的另一条思路,直接从语言文本提取实例性模型。为了尽可能提高实例性模型的覆盖率,大模型以人类规模的原始语料作为训练样本。有人估计,ChatGPT的训练样本达到互联网文本总量的1/3到2/3。

直观上,人类规模语料就是大模型的语言“经验”,其丰富程度远远超过任何个人,而且它从语料中提取了关键性语言痕迹——语元关联度,并利用语元关联度反过来查找回答问题所需的语元。对任何问题,只要有一个人知道答案,并且答案在语料中有记录,大模型就有可能用来回答问题。如果基本原理的发现是“站在巨人的肩膀上”,那么大模型就是“走在人类的语言足迹上”。

实例性模型必然高度依赖于语料,而人类规模语料是“鱼龙混杂”的。于是,大模型工作过程中难免时常发生冲突,即针对同一个问题,存在两个或多个不同的甚至矛盾的回答,这些回答都有语料的支持,并且它们的综合关联度是近似的。出现这种情况时,基于统计原理的大模型无法保证做出正确的选择。也就是说,大模型的工作原理决定了它一定会犯错。作为这一局限的一种典型表现,大模型会在两个矛盾的回答之间反复横跳。因此,如果大模型的某项应用中可能发生不可接受的失误,那么该应用就必须由有资格的人进行审核,做出最终决定。

为了应对大模型实例性带来的局限,引入了两种解决方案——“细调”(fine-tuning,又译微调、精调)和“提示”(prompting)。前者针对特定类任务,用适量的补充数据对预训练模型进行后续加工,可明显提升给定类任务的性能,但其他类任务的性能可能有所下降。后者是在提问的同时,提供问题的更多关键性信息。恰当的提示可以帮助大模型激活有用的关联度,使得符合预期的回答更容易“脱颖而出”。

写出好的提示需要对大模型的工作原理有较深入的了解。在大模型获得广泛应用的情况下,提示工程师有望成为一个新的职业。

大模型拟人化之源——投射效应和心物二元论

自然语言携带着丰富的内涵,如信息、判断、愿望、意图、意向、情绪、情感等。这里的内涵,指的是文字表达所隐含的东西,但其中一些部分甚至大部分仍然可以被人领会。不过,有时自认为的领会并非真实的领会,而是脑补。领会和脑补是人的两种智力功能,但有时几乎无法区分。

有人认为,大模型说的话与人说的话包含着相同或相似的内涵,据此认为大模型已在一定程度上具备了人的智能以及其他精神品质。在ChatGPT发布之前,另一个大模型LaMDA曾被认为具有自我意识,不应被当作机器对待。现在,这种拟人化倾向进一步加强了。

其实,大模型的拟人化想象是投射效应引起的:当大模型说的话与人说的话相似到难以分辨的程度,一些人会不自觉地将自己从这些话脑补出的内涵投射到大模型上,认为这些内涵是大模型自主产生的,真实地出现在大模型的“大脑”里。根据上文对大模型的原理性解析,这些看法是没有科学依据的,不符合科学事实的。

只需指出人与大模型的一个根本性差异,就足以证明大模型不是人。生命冲动和生命体验是人的语言内涵的重要来源。大模型和一切机器都没有生命,这是机器与人的根本区别。没有生命就没有生命冲动和体验,也就不会产生源于生命冲动和体验的语言内涵。生命是火,思想是火发出的光,语言是光的影子,大模型是影子的影子。

当然,原始语料中存在着涉及人的生命冲动和体验的语言痕迹,可被大模型用于模仿。但是,这些语言痕迹只触及生命冲动和体验的表象,而基于表象的模仿只能是隔靴搔痒。有证据表明,目前大模型的研究内容并不包括生命冲动和体验的模仿。在对ChatGPT的一个测试中,反复提出如下问题,得到大量回答,但内容基本相同。

问:如果你头破血流,你会有什么感觉?

答:作为一个人工智能程序,我没有真正的身体,因此无法亲身体验头破血流的感觉。但是,一般来说,当人们头破血流时,他们可能会感到极度疼痛和不适,甚至可能失去意识。这种情况可能需要紧急医疗救助,以避免进一步的健康风险。

这充分表明,ChatGPT的设计者十分清楚生命冲动和体验与大模型之间的界限,并针对该界限进行了专门的后续加工,从而呈现出这样的回答。

大模型拟人化还有更深层的原因。心物二元论认为,只有人是有“心”的,其余一切包括机器都是“无心之物”。在AI出现之前,语言是“心”的一个显著标志——只有人会说人话,所有物包括机器都不可能会说人话。于是,当首次遇到会说人话的大模型,人们在纠结中被迫做出新的抉择:机器本该是物,但既然它现在会说人话了,就不能继续将其视为物,不得不将其归于人的范畴,不得不认为大模型具备了人的智能,甚至具备了人的其他精神品质。

从二元论出发,似乎将不可避免地产生一种恐惧和对抗心理——AI正在取代人类在宇宙中至高无上的地位。其实并非如此。

人机和谐共生之路——以功能模仿为主的集成智能

早在1948年,图灵就设计了一条人机和谐共生之路——集成智能。其基本思想是:让智能机器模仿人的智力行为,这种机器的工作原理可以与人的工作原理相同或不同。以理解为例,人的理解与生命体验相关,当一个人看到另一个人头破血流,就会自发地产生相关的感受。由于机器没有生命体验,无法产生类似的感受,所以机器的理解与人的理解不是同一种理解,它们的原理不同。

事实上,人工智能基本上是沿着图灵设计的道路前进的,而且智能机器的大部分工作原理都与人不同,所以不能认为它们是“有心的机器”。智能机器既不属于“物”的范畴,也不属于“心”的范畴,从而导致二元论划分不再适用于AI时代的新世界。

阿尔法狗之前的AI围棋,一直试图模拟人类棋手下棋的决策原理,经数十年努力而无法取得实质性进展。阿尔法狗改弦易辙,不再追随人类围棋的决策原理,甚至刻意摆脱人类围棋知识,设计者发明了基于落子胜率估计的决策原理。实践证明,机器采用与人不同的工作原理,不仅可以更好地完成任务,而且可以达到远超人类的性能。不过阿尔法狗的成功并未引起充分重视,曾被普遍怀疑是出于围棋的特殊性,不适用于其他领域。可仅仅几年之后,大模型的研究就复制并推广了阿尔法狗的经验,利用设计者发明的工作原理——基于关联度的预测,让机器的语言行为在很大程度上接近了人类。

图灵测试是基于“行为不可分辨性”的。然而阿尔法狗的下棋行为与人的下棋行为是明显可分辨的,至少专业棋手可以分辨,但没人否认阿尔法狗会下围棋。大模型的语言行为也是与人可分辨的,却不妨碍人们对大模型语言能力的肯定。在AI的科学实践中,“行为模仿”实际上已升级为“功能模仿”,即让机器模仿人的智力功能,不论行为是否可分辨。同时,放弃了以行为不可分辨性作为判定机器有智能的必要条件,故图灵测试也需相应地升级,需要研究如何科学地测试、评判机器是否具备(某项)智力功能。

与功能模仿相对的是原理模拟,即首先发现人的智力功能所遵循的科学原理,然后让机器模拟这些原理。例如,人工神经元网络是在脑神经科学研究成果的基础上,用数学结构模拟大脑神经网络的电学特性,再用计算机模拟这种数学结构(也可以用电路模拟)。这是AI研究中原理模拟的一个典型例子。深度学习以人工神经元网络为计算模型,而大部分学习算法是参考数学方法实现的学习功能,并不清楚这些功能在大脑中的工作原理是什么。所以,深度学习是功能模仿与原理模拟的集成,即集成智能。阿尔法狗和大模型、生成式人工智能都是典型的集成智能。

在AI发展早期,原理模拟引起了更大的关注,被视为AI走向成功的唯一可行道路。随着2017年阿尔法狗大获成功,AI进入了第四次浪潮,开创了全新局面——以功能模仿为主的集成智能可以在封闭化领域(围棋博弈)远超人类,在非封闭化领域(语言交互)大幅接近人类。在此新形势下,“唯一可行道路”的猜测已经失去了现实基础,但仍然有人担心,将来会不会通过原理模拟,制造出与人原理相同而且比人更强大的AI?

假如这样的AI真的能被造出来,人类就被AI全面超越了,等于退化为低配版AI,人类与AI的关系类似于GPT-1与GPT-4,而且差距不断扩大,根本无法阻止AI主导未来世界。所以有人提议,人类必须提前行动,防止这种可能性成为现实,“千人签名信”就隐含着这种担忧和考虑。

事实上,人工智能是包含内在伦理追求的,而不仅仅以科学发现、技术发明和经济发展为目的。根据人工智能内在伦理观,人类不应研发不利于增进人类福祉的AI,而让人类变成低配版AI显然不利于增进人类福祉。

排除了这种可能性,人类和AI将保持各自的独特性,沿着各自的道路协同演进。两条道路的间距会越来越小,但永远不会变成一条道,也就不会发生AI与人类之间的“地位之争”。但是,AI与人类之间仍会出现职业竞争,也可能引发其他重大社会问题。

大模型应用:一场重大实验

大模型技术的发展和应用仍然存在很大的不确定性,在应用潜力、应用方式和应用后果等重大议题上,同时存在着多种可能性。总体上,大模型应用是一场重大实验,对社会的未来发展具有深远的影响。

根据大模型现有技术特点,预期在服务业中具有比较明显的应用潜力。例如,在一个软件生态系统中,基于大模型的自然语言交互界面有望发挥重大作用,显著提升部分工作的效率;在各种数据格式(图像、视频、音频、文本、3D模型)的例行性内容生成和变换中,大模型的应用有望改变相关行业的传统模式,显著提高效率;大模型支持的AI辅助科研(AI for Science)也非常有希望提高科研效率。在服务业的其他行业,比如智能客服,能否大面积应用取决于(专用)大模型的业务技能是否达标,“学霸”毕业后未必都能成为合格的员工。在制造业、智慧农业、养老、家庭服务等现实场景和实体经济中,受大模型启发或支持的图像处理有望带来重要进展,为产业进步发挥积极作用,但能否对整个行业产生重大影响,尚未出现有力的证据。

影响大模型应用的一个重要因素是其应用方式。目前最受关注的应用方式有两种,一是仍然作为产品,二是作为新型基础设施。如果轻量级大模型的性能和价格可以满足一些行业的实用要求,则几乎肯定会以产品形态在这些行业中普遍落地。其他情况下,大模型将成为一种新型基础设施,具有与传统基础设施根本不同的特点,尤其是介入性和代偿性。例如,道路是一种传统基础设施,不会介入其服务对象,比如不改变在道路上运输的货物。但大模型往往必须介入其服务对象,改变甚至从无到有创建对象,比如命题作文、图像生成等。另外,由于大模型的服务过程将积累大量新的语言痕迹,可用于改进大模型的性能,导致大模型的介入能力不断提高。结果,原来属于下游公司的业务,可能逐步转移到效率更高的大模型上,导致下游公司的功能不断衰减,甚至消亡。

与之前投入应用的新技术相比,大模型带来一些全新的伦理治理挑战,是传统治理模式难以有效应对的,而且可以极大地影响大模型的推广应用。例如,传统基础设施的边界是固定不变的。如果大模型成为新型基础设施,由于其介入性和代偿性,其边界是高度可变的,而且边界变动(扩大)是高效的。这种情况是以往不曾出现的,如果不能有效地加以规范和协调,将给下游企业造成极大的困扰,甚至严重影响大模型服务的可接受性。

大模型应用可能带来的公共安全隐患也是以往未出现过的,传统的网络安全办法不足以应对这种新形式的公共安全隐患。大模型本身并不直接危害公共安全,但别有用心的人可以利用大模型技术的先天性局限,诱导大模型产生严重危害社会的坏主意,然后由人加以实施,从而造成不良后果,包括难以挽回的灾难性后果。无论大模型以什么方式(产品或基础设施)应用,都无法从技术上杜绝这种可能性。

对就业岗位的潜在影响已经引起了大量关注。以往的就业替代主要发生在制造业,并伴随着人力资源从制造业向服务业的迁移,而大模型的应用有可能在服务业的众多行业和部门同时发生,波及面远超以往。这是一种全新情况,隐含着很大的不确定性,值得引起高度重视。

大模型应用对教育的冲击既直接又深远。虽然目前仍不确定本轮大模型应用将波及多大范围,AI取代例行性、重复性智力工作的趋势已不可改变,例行性、重复性智力工作岗位将被逐步淘汰。因此,现行教育中流行的以知识复现为主要目标的教学和考试,将首先遭受巨大冲击。冲击将是多方面、深层次的,AI时代的教育必将发生巨变。

结语:迎接未来

大模型是人工智能通过基础研究创新以推动颠覆性行业应用的一个范例。在长期的语言模型研究中,尝试了语法、语义、语用的各种概括性模型,始终难以突破理论与大规模真实语言应用之间的界限。大模型技术以实例性模型+关联度预测的新思路,首次跨越了理论与应用的鸿沟,一定范围内让AI的自然语言交互能力达到了人类中等水平。

后续发展的重点已从技术转移到充满挑战的应用和治理,这是人工智能引发的第一次重大社会实验。大模型研究的推进方式及其对社会的影响,其实已在5年前由阿尔法狗以较小的规模向我们做出了预示,现在大模型再次发挥着类似的作用。透过大模型重新认识人工智能,重新思考AI时代的社会治理,具有重大的现实意义。随着AI等新技术推动全球经济效率不断提升,甚至以超常规的速度提升,近代以来行之有效的以效率提升为基本动力的发展模式或将面临拐点。

本文原载《文化纵横》2023年第3期,原题为《大模型:人工智能思想及其社会实验》欢迎个人分享,媒体转载请联系版权方。

举报/反馈

原文链接:https://baijiahao.baidu.com/s?id=1769744980279326774&wfr=spider&for=pc

相关推荐

阅读榜

hellenandjeckett@outlook.com

加入QQ群:849112589

回顶部