原标题:GPT-4和ChatGPT大比拼,究竟谁胜?
图片来源@视觉中国
文 | 零点有数科技
作为人工智能史上里程碑事件之一的ChatGPT,自2022年11月30日发布至今,一直备受热议。在ChatGPT热潮尚未见减弱之势,2023年3月14日,OpenAI公司继续发布新一代AI语言大模型GPT-4,并官宣称GPT-4是“OpenAI最先进的系统”“能够产生更安全、更有用的响应”。
作为同一家公司推出的同属人工智能技术驱动的自然语言处理工具(AI语言大模型),相比此前的ChatGPT,GPT-4到底有何先进之处?支持这些先进之处的底层逻辑是什么?点击阅读原文,领取零点有数专家的超万字详细解读。
鉴于ChatGPT是基于GPT-3.5大模型微调形成的一个应用产品——AI聊天机器人,而GPT-4则是GPT-3.5的下一代大模型,本文将从两个层面来比较:一是从基础模型层面,比较GPT-4与GPT-3.5(作为底层逻辑);二是从应用能力层面,比较GPT-4与ChatGPT(作为先进之处)。
01 GPT-4与GPT3.5
GPT-4是OpenAI公司自2018年6月发布GPT-1以来,并历经GPT-2、GPT-3、GPT-3.5之后的最新一代AI自然语言大模型(参见下表1)。
从历代沿革来看,原理基本相同。第一,都是采用一种称之为“自回归生成”的关联统计方法;第二,都是首先采用无监督学习预训练出一个基础通用模型,然后再通过监督学习进行微调适配各种任务,最后采用“从人类反馈中强化学习”的强化学习方法,使得模型能像人类一样进行对话交流;第三,都是基于一种称之为“Transformer”的算法框架。即都是“GPT”(生成式预训练转换器,或称生成式预训练大模型)。
然而不同的是,演变的变量主要关乎模型的规模(即参数个数)、预训练的数据量、对输入信息的支持能力(是否是多模态、是否是长信息)、模型功能(是否有多种能力)以及模型性能、应用安全和可靠性等方面。
具体对比如下:
1、模型规模。相较于GPT-3.5的1750亿个参数,GPT-4的参数达到了5000亿个(也有报道为1万亿),GPT-4的规模比GPT-3.5更大。更大的规模通常意味着更好的性能,能够生成更复杂、更准确的语言。
2、训练数据。GPT-3.5使用了来自维基百科、新闻报道、网站文章等互联网上的大量文本数据,大小为45TB左右。而GPT-4则使用了更大量的网页、书籍、论文、程序代码等文本数据,同时还使用了大量的可视数据。尽管无法考究具体数值,但毫无疑问,GPT-4的训练数据比GPT-3.5更丰富。这使得GPT-4具备更广泛的知识,回答也更具针对性。
表1 OpenAI历代GPT模型参数与预训练数据量对比
3、模态与信息。GPT-3.5是基于文本的单模态模型,无论是图像、文本、音频,用户只能输入一种文本类型的信息。而GPT-4是一个多模态模型,可以接受文本和图像的提示语(包括带有文字和照片的文件、图表或屏幕截图)。这使得GPT-4可以结合两类信息生成更准确的描述。在输入信息长度方面,与GPT-3.5限制3000个字相比,GPT-4将文字输入限制提升至2.5万字。文字输入长度限制的增加,也大大扩展了GPT-4的实用性。例如可以把近50页的书籍输入GPT-4从而生成一个总结概要,直接把1万字的程序文档输入给GPT-4就可直接让它给修改Bug。
4、模型功能。GPT-3.5主要用于文字回答和剧本写作。而GPT-4,除文字回答和剧本写作外,还具有看图作答、数据推理、分析图表、总结概要和角色扮演等更多功能。
5、模型性能。虽然GPT-3.5已经表现出很强大的性能,但GPT-4在处理更复杂的问题方面表现得更好。例如,在多种专业和学术基准方面,GPT-4表现出近似人类水平;在模拟律师考试方面,GPT-4可以进入应试者前10%左右,而GPT-3.5则在应试者倒数10%左右;在USABO Semifinal Exam 2020(美国生物奥林匹克竞赛)、GRE口语等多项测试项目中,GPT-4也取得了接近满分的成绩,几乎接近了人类水平。参见如下图1。
图1 GPT-4各项考试结果(按GPT-3.5性能排序)(数据来源:https://openai.com/research/gpt-4)
6、安全性和可靠性。GPT-4改进了对抗生成有毒或不真实内容的策略,以减少误导性信息和恶意用途的风险,提高其安全性和可靠性。特别地,GPT-4在事实性、可引导性和拒绝超范围解答(非合规)问题方面取得了有史以来最好的结果(尽管它还不够完美)。与GPT-3.5相比,在生成的内容符合事实测试方面,GPT-4的得分比GPT-3.5高40%,对敏感请求(如医疗建议和自我伤害)的响应符合政策的频率提高29%,对不允许内容的请求响应倾向降低82%。
总体来说,GPT-4比GPT-3.5更可靠,更有创造力,能够处理更细微的指令。参见表2。
表2 从GPT-3.5到GPT-4的新变化
02 GPT-4与ChatGPT
ChatGPT是基于GPT-3.5的AI聊天机器人。但在对话方面,GPT-4已表现出更好的连贯性和语境理解能力:不仅可以生成流畅、准确和有逻辑的文本,还可以理解和回答各种类型的问题,甚至还可以与用户进行创造性和技术性的写作任务。其中,比较突出的应用能力体现如下。
1、新增的图片辨识和分析能力。与ChatGPT相比,GPT-4除了可以支持文字输入以外,还新增了图片辨识和分析功能,即能辨识图片(输出对图片的内容描述)、分析图表(类似EXCEL中的图表分析)、发现图片中的不常之处(对图片中异常现象进行辨识)、阅读文件并总结概要(如对PDF文件内容进行归纳总结)等。甚至只需要在纸上画一个网站的草稿图,拍一张照片上传给GPT-4,模型便可生成网站代码。
2、更先进的推理能力。相比ChatGPT只能在一定程度上进行简单和直接的推理,GPT-4可以进行复杂和抽象的思考,能解决更复杂的问题。如前所述,GPT-4在多个专业和学术领域都已表现出人类的水平,如美国的律师考试已经达到了前10%的标准,法学院的入学考试也达到了88%的成绩,SAT大学入学考试也达到了90%的成绩。特别是ChatGPT不擅长的数学解题能力,GPT-4有了大幅提升,在美国高校入学考试SAT数学考试中,获得了800分中的700分。
3、更高水平的创造力和协作性。与ChatGPT只能在一定范围内进行有限的创造和协作不同,GPT-4可以与用户进行创造性和技术性的写作任务,例如创作歌曲、编写剧本或者学习用户的风格和偏好,还可以生成、编辑和迭代各种类型和风格的文本,并且能够根据用户的反馈和建议来改进其输出。
4、更广泛的应用前景。GPT-4凭借接近人类水平的语言理解和生成能力以及其他方面的优势,可在各种领域和场合中发挥重要作用。例如,GPT-4可以作为一个智能助理、教育工具、娱乐伙伴和研究助手,为Office办公软件、搜索引擎、虚拟导师应用等提供使能。据公开资料报道,微软已将GPT-4接入Office套件从而推出全新的AI功能Copilot,也已将GPT-4接入Bing以提供定制化搜索服务;摩根士丹利正在应用GPT-4进行财富管理部市场信息的分类和检索;Doulingo将使用GPT-4进行角色扮演以增进语言的学习;BeMyEyes正在运用GPT-4将视觉型图片转成文字帮助盲人理解;可汗学院也已使用GPT-4作为虚拟导师Khanmigo……等等。
可以预见,GPT-4将会接入越来越多的行业,从而促进社会生产力和创造力的提升,为人类带来便利和价值。与此同时,伴随着GPT-4的应用拓展和深入,GPT-4将从人类反馈中进行更多、更快的学习,其模型迭代升级的速度也将随之加快,更多的功能、更强的性能将会呈惊现于世。
03 共同的问题
如前所述,GPT-4和ChatGPT同属生成式AI自然语言大模型。所谓生成式,简而言之就是根据输入的单词来预测下一个最有可能出现的关联性单词,然后将这个最有可能出现的单词输入模型,再预测下一个最有可能出现的关联性单词……,类似“单词接龙”,如此接续。通过对大量现存的各种人类语料进行“训练”,让模型的各个参数不断调整,使得模型的“单词接龙”水平不断接近人类语料的真实情况,即让模型学到规律。由此,GPT-4和ChatGPT均会存在由于生成式本身的短板所导致的一系列问题。
例如:如果真实语料中本身存在大量虚假信息,或者存在大量有毒信息(如充满种族、性别、宗教、政治等偏见或恶意),而这些信息恰好被模型学到了,这无疑会导致模型存在产生有害内容的风险;如果出现了实际不同但碰巧符合同一规律的内容,模型有可能无法区分其真实性,最直接的结果是,若现实中不存在的内容刚好符合模型从训练材料中学到的规律,模型就有可能对不存在的内容进行“合乎规律的混合捏造”,即产生虚假信息;由于模型缺乏可解释性,而我们又无法直接查看模型到底记住了什么、学到了什么,只能通过多次提问来评估和猜测它的所记所学,这会导致隐私泄露风险(据BBC 3月23日报道,有用户在社交媒体上看到了其他人使用ChatGPT的历史搜索记录标题);基于“从人类反馈中强化学习”,难以避免从恶意的诱导中学到了不该学的规律,这会给意识形态侵袭、网络安全带来冲击……。总之,伴随着应用越广泛、越深入,GPT-4和ChatGPT都将面临更多的安全与风险挑战。
正如OpenAI公司的创始人兼首席执行官Sam Altman最近接受ABC新闻采访时表示,他对人工智能技术以及它如何影响劳动力、选举和虚假信息的传播有些“害怕”。他也警告说,人工智能的广泛使用可能会带来负面影响,这需要政府和社会共同参与监管,他呼吁反馈和规则对抑制人工智能的负面影响非常关键。返回搜狐,查看更多
责任编辑:
原文链接:http://news.sohu.com/a/672945617_116132