人工智能大数据,工作效率生产力
Ctrl + D 收藏本站,更多好用AI工具
当前位置:首页 » AI资讯

我们用4万字告诉你ChatGPT到底是什么(上)

2024-07-24 53

序言及摘要:

作为星船知造“现代通信与智能网技术展望”系列栏目的第一辑,我们邀请星船知造的资深读者、通信行业教授级高级工程师钱鸿生博士为我们撰写了《ChatGPT技术架构及中国人工智能未来发展趋势报告》
报告正文共3.8万字,在介绍了ChatGPT的进化历程、主要内涵、底层技术架构与逻辑后,主要分析中美现阶段在AI领域的竞争优势与差距,提出ChatGPT潜在的商业价值和对资本市场影响的风险管控警示。并分析了算法和算力以及芯片技术,对我国人工智能AI发展的制约与影响,最后切入我国AI产业结构调整、建立AI法律保护与系统安全的视角,对发展我国人工智能产业提出一些前瞻性的趋势分析和研判。

ChatGPT全称为“Chat Generative Pre-trained Transformer”,Chat是聊天,GPT是“生成型预训练变换模型”,可以翻译为“聊天生成预训练转换器”或简称“优化对话的语言模型”。
由美国人工智能公司OpenAI 开发的ChatGPT两个月时间内用户已超1个亿。
作为一款建立在云计算、海量数据库、人工智能算法架构和深度神经网络基础之上开发的聊天机器人程序,ChatGPT不像传统的搜索引擎一样复制、粘贴、拼凑网上已有的信息给你。它的回答是有逻辑的、生动的,有上下文关联的。
ChatGPT聊天机器人目前支持几乎世界上所有的语言输入。有人说未来它会像《流浪地球》系列电影中的智能量子计算机MOSS,不仅拥有超强算力,还有自我意识、自我迭代、自我更新的特点,最终演化出有思维的人工智能。
或许MOSS已经离我们不远了。

OpenAI官网发布的ChatGPT系统界面


OpenAl还有两个不为人知的小故事。其一关于马斯克与OpenAI的历史渊源。
马斯克实际上是OpenAI创始人之一。2015年马斯克联合LinkedIn 创始人、Y Combinator总裁及 PayPal创始人等共同宣布创立OpenAI 公司,目标说是打造属于全人类的、开放的AI组织,其定位是非营利性的,不过在2018年马斯克突然离开OpenAI。
外界传闻有两个版本:
一是特斯拉公司也在研究AI,与OpenAI 在研发方向上有冲突,马斯克因此退出了董事会,但继续担任了OpenAI 公司的顾问。
二是马斯克挖走了当时刚从斯坦福大学博士毕业后加入OpenAI的天才少年安德烈,安德烈的研究方向为计算机视觉,主攻图像识别和理解,当时马斯克的特斯拉也需要这样的人才。于是马斯克请这位安德烈去解决特斯拉的问题,为此OpenAI 公司一气之下把马斯克“踢”出董事会。

图源:维基百科

其二关于安德烈。出生于捷克斯洛伐克的安德烈全名安德烈·卡帕斯(Andrej Karpathy),作为ChatGPT发展中的重要人物,是位“85后”。29岁时在斯坦福大学拿到博士学位。读博期间,他两次到谷歌公司做毕业实习。
博士毕业后,安德烈2016年加入了当时刚成立一年的OpenAI,是OpenAI创始团队的成员之一,只不过工作一年多后,就被马斯克挖到特斯拉去了。
他被马斯克迅速提升,接管了整个人工智能开发团队的软件部分,并和负责硬件的Pete Bannon携手主导了特斯拉车控智能软件开发。在此之后,他还接管了擎天柱人形机器人、特斯拉超算系统Dojo的开发,可以说是马斯克手下最为重要的人工智能领军人物。

特斯拉人形机器人 图源:Tesla官网

2022年7月安德烈突然离开特斯拉,回归OpenAI。
安德烈在自己的推特账号上轻描淡写说道:“我和许多其他人一样,不管是处于AI圈的还是非AI圈,都被OpenAI的成果鼓舞感动了。我相信这家公司未来的潜力非常大,因此很高兴重新投入到其中来。”
OpenAI很多人对安德烈7年后重新回到公司充满了期待,给予他“让CharGPT再次伟大(Make ChatGPT Great Again)”的厚望。
无论何时,在AI人工智能领域的人才争夺都是如此激烈。

1.2.ChatGPT主要功能

星船知造为您逐一稍作展开——

1.2.1文本生成

1.2.2 聊天机器人
ChatGPT大型语言模型可以实时回答人们提出的各种问题,ChatGPT可以记住你之前跟它说话的过程与内容。
ChatGPT聊天机器人具有一定的记忆和思维判断功能,能根据对话内容,前后呼应且有一定的语言逻辑推演能力,这也是ChatGPT聊天机器人区别于之前一些人工语言处理系统完全不一样的地方。

1.2.3 语言问答
ChatGPT的语言问答系统是应用人类语言处理技术,通过识别用户问题并匹配相应答案来回答问题。它通过对大量数据学习和深度分析,以及对语言和语法的深入了解,帮助用户快速找到所需的信息。
ChatGPT问答系统适用于售后服务与话务员应答、医疗咨询和教育等场景。可24小时连续不断地提供服务。

1.2.4语言翻译
ChatGPT的语音翻译是利用人工智能技术,将各国不同的文字和语言进行相互转换,可直接把文字转换成不同的语言。它通过使用计算机算法和语音数据库来生成语音合成,可用于语音导航、机器人语音交互、同声翻译、语音自动识别等应用。

1.2.5自动文摘
ChatGPT的自动文摘是一种利用人工智能技术,针对大量文本和视频内容进行简化、概括的技术。它通常采用机器学习和自然语言处理方法,识别文本中的关键信息,生成简明、准确的摘要。
可在一次会议后马上整理出会议纪要,或对长达2个小时的电话视频做出一份10分钟的会议摘要。自动文摘可以缩短文本阅读时间和视频阅读时间,提高编写会议的效率,帮助用户快速了解文本内容。它在新闻、科技、商业等领域都有应用。

1.2.6绘画功能
用户可以在ChatGPT中写一段有关画作的文字描述,描述你想要画出的图片或影像要求。也可以借助ChatGPT的提示,使系统更详细地了解你所要描绘的作品。对于产品广告设计和期刊书籍的插画是方便的工具。使用者不需要专业绘画技术的积累。

1.2.7编程功能
大多数开发场景中,特别是用户需求相对固定的场合,ChatGPT 可以用来编写代码,检查代码语义的准确性,改进和简化人们的编程工作。
ChatGPT 还可以帮助我们提高自己编程代码的质量和可读性,通过你提出的要求,它会逐行添加注释,可以确保代码在发布前得到正确记录,并使其他人更容易理解和使用代码。可提高代码可读性、可维护性和与他人协作的能力。
ChatGPT其实还有很多功能正在被开发与完善之中,有人把目前ChatGPT-3提供的功能细分为8大类60项功能,在此我们就不一一赘述了。

总之,ChatGPT的出现,为人工智能技术的发展带来了新的思路和技术支持,在数据处理、自然语言处理以及其他领域的应用前景广阔。

图源:unsplash

有人把ChatGPT理解为一个简单的搜索引擎功能,认为其工作原理就是把2022年以前网络中已有的数据,加工整理后推送给客户。人们认为ChatGPT只要建立一个足够大的数据存储空间,把所有的信息存放在里面,然后进行检索,就可以实现文本问答和聊天机器人功能了。
其实ChatGPT的工作原理并不是那么简单,比一般人理解的程度要复杂很多,这里面涉及生成性预训练变换模型和很多关键核心技术和底层逻辑。

2.1 ChatGPT生成性预训练变换模型
前文我们在介绍ChatGPT的含义时已经介绍过,ChatGPT的全称为“Chat Generative Pre-trained Transformer”,翻译成中文就是生成型预训练变换模型。在此之前,一般所谓的人工智能、机器学习、聊天对话软件在很大程度上都是局限于观察、分析和内容分类以及图像识别。
而以ChatGPT为代表的生成性人工智能AI是一项技术上的突破,它可以生成新内容,而不仅限于分析现有的数据。它的技术核心是生成性的人工智能。

图源:unsplash

从ChatGPT字面上来看,Chat是聊天的意思,但GPT才是关键。
第一个字母G是Generative,属于生成性的人工智能,在这以前的人工智能都局限在观察分析现有内容,但这次ChatGPT是个突破,它可以根据我们的需要,创造生成全新的内容。
第二个字母P是Pre-trained的缩写,预训练的意思。表示这个模型已经在某些有限的数据集上进行了预训练,ChatGPT在与人的对话中几乎接近正常人的交流,就是因为它已经接受过海量数据的训练,而这些数据就是我们人类2022年以前发布在互联网上的内容目前版本的ChatGPT还不具备网络数据实时更新功能)。
由于ChatGPT目前还没有实现网络的实时连接,因此回答问题的时效性受到一定的限制。
ChatGPT在正式发布前,已经进行了大量的监督学习和通过人类反馈强化学习,所以我们在使用它的时候,这个模型能准确快速地生成对话内容。
第三个字母是Transformer,翻译过来就是转换器,这是ChatGPT底层人工智能学习的一个算法架构。

ChatGPT严格意义上来说就是一种基于Transformer的自然语言处理模型。采用了预训练加微调的方法,通过对大规模语料库进行预训练,对标注数据进行微调,从而使模型能够适应特定的自然语言处理任务,拥有语言理解和文本生成能力。

2.1.1 ChatGPT的演进过程

2.1.2 ChatGPT的预训练加微调

所谓的ChatGPT预训练,是一个基于transform模型的预训练语言模型,它的训练逻辑如下:

第一是语料准备,从互联网上收集大量文本语料。如新闻、书籍、论坛,其中维基百科是它的一个重要数据来源。维基百科是用多种语言编写而成的网络百科全书。

然后是对数据预处理,对语料进行处理,把它们分割成许多独立的句子或段落,对每个句子进行分词。分词后把每个单词转换成数字,生成一个数字序列,然后构建成数字词典。
训练就是使用这些数字序列用transformer模型进行模拟场景试验,需要投入大量的人工干预,并使用监督学习的方式对预训练模型进行微调。根据奖励模型优化策略,然后生成输出,ChatGPT的预训练绕不开正向传递,反向更新,梯度收敛,预训练模型降低了获取更高水平人工智能的成本。
由于至今OpenAI没有公开ChatGPT相关预训练数据集来源和具体细节,一定程度上阻碍了追赶者的步伐。

2.1.3 ChatGPT的Transformer转换器

ChatGPT的核心技术之一是Transformer转换器,Transformer技术是近几年人工智能技术最大的亮点之一,由谷歌的人工智能的团队“谷歌大脑”首先发布。

这种模型是使用一种叫自注意力的机制(self attention mechanism),它允许模型在进行预测的时候,可根据语言序列的任何位置,为输入数据的不同部分赋予不同的权重,并支持处理更大的数据集。
Transformer的精度和性能上都比之前流行的CNN(卷积神经网络)、RNN(循环神经网络)等模型,大幅提升了模型训练的效果,让人工智能在更大模型、更多数据、更强算力的基础上进一步增强运算能力。此外,还具有很强的跨模态处理能力,不仅在NLP(自然语言理解)领域表现优异,在语音、图像方面也显示出了优异的性能。
Transformer是ChatGPT语言模型的核心技术,是一种用于序列到序列(Sequence-to-Sequence)任务的神经网络模型,例如机器翻译,语音识别和生成对话等,它使用了注意力机制来计算输入序列和输出序列之间的关系。如下图所示👇

原文链接:https://baijiahao.baidu.com/s?id=1759880166176677904&wfr=spider&for=pc

相关推荐

阅读榜

hellenandjeckett@outlook.com

加入QQ群:849112589

回顶部