人工智能大数据,工作效率生产力
Ctrl + D 收藏本站,更多好用AI工具
当前位置:首页 » AI资讯

【GPT-4】GPT-4 相关内容总结

2023-12-10 103

​编辑

官网介绍

GPT-4 内容提升总结

GPT-4 简短版总结

GPT-4 基础能力

GPT-4 图像处理

GPT-4 技术报告

训练过程

局限性

GPT-4 风险和应对措施

开源项目:OpenAI Evals

申请 GPT-4 API

API的介绍以及获取

没开通Plus的用户还没办法体验到

我们创建了 GPT-4,这是 OpenAI 努力扩展深度学习的最新里程碑。GPT-4 是一个大型多模态模型(接受图像和文本输入,发出文本输出),虽然在许多现实世界场景中的能力不如人类,但在各种专业和学术基准上表现出人类水平的表现。

  • 创造力:GPT-4 比以往任何时候都更具创造性和协作性。它可以生成、编辑并与用户一起迭代创意和技术写作任务,例如创作歌曲、编写剧本或学习用户的写作风格。

  • 视觉输入:GPT-4 可以接受图像作为输入并生成说明、分类和分析。

  • 更长的上下文:GPT-4 能够处理超过 25,000 个单词的文本,允许使用长格式内容创建、扩展对话以及文档搜索和分析等用例。

  • 通过人工反馈进行训练:我们纳入了更多的人工反馈,包括 ChatGPT 用户提交的反馈,以改进 GPT-4 的行为。我们还与 50 多位专家合作,在 AI 安全和保障等领域获得早期反馈。

  • 从现实世界的使用中不断改进:我们已经将我们以前模型在现实世界中使用的经验教训应用到 GPT-4 的安全研究和监控系统中。与 ChatGPT 一样,随着越来越多的人使用它,我们将定期更新和改进 GPT-4。

  • GPT-4 辅助的安全研究:GPT-4 的高级推理和指令遵循能力加快了我们的安全工作。我们使用 GPT-4 帮助创建用于模型微调的训练数据,并在训练、评估和监控过程中迭代分类器。

  • 重点强化了创作能力,作曲,写小说,能够生成歌词、创意文本、实现风格变化等

  • 强大的识图能力,除本身带了对于图片 OCR 外,还有对位置和细节的理解能力

  • 增加了对于长文本的处理能力:文字输入限制提升至 2.5 万字

  • 回答准确性显著提高

  • 多了一种新的交互方式,就是对于图片的理解

  • GPT-4是一个大型多模态模型(Large Multimodal Model),能够接受图像和文本输入,并输出文本。

  • 实验表明,GPT-4 在各种专业和学术考试中表现出了与人类水平相当的性能(human-level performance)。例如,它通过了模拟律师考试,且分数在应试者的前 10% 左右;相比之下,GPT-3.5 的得分在倒数 10% 左右。

  • GPT-4的训练稳定性是史无前例的,这得益于对抗性测试计划和来自于ChatGPT的经验教训,对 GPT-4 进行迭代调整,从而在真实性、可控性等方面取得了有史以来最好的结果。

  • 在过去的两年里,OpenAI重建了整个深度学习堆栈,并与Azure共同设计了一台超级计算机以便于应付他们的工作负载。 将继续专注于可靠的扩展,进一步完善方法,以帮助其实现更强大的提前预测性能和规划未来的能力,这对安全至关重要。

  • OpenAI首先发布了GPT-4的文本输入功能,图像输入功能敬请期待

  • OpenAI还开源了OpenAI Evals,这是他们的自动化评估AI模型性能的框架,任何人都可以提交他们模型的缺陷以帮助改进。

  • OpenAI 正在通过 ChatGPT 和 API(有候补名单)发布 GPT-4 的文本输入功能。图像输入功能方面,为了获得更广泛的可用性,OpenAI 正在与其他公司展开合作。

  • OpenAI 还在为机器学习模型设计的传统基准上评估了 GPT-4。GPT-4 大大优于现有的大型语言模型,以及大多数 SOTA 模型

  • GPT-4 是一个多模态大模型,支持接受图像和文本输入,输出文本。

  • 虽然没一步到位,把音视频也覆盖上,但如果能把图像与文本这两块做好,相信其应用潜力无限。

  • 即便 GPT-4 在许多现实世界场景中能力不如人类,但在各种专业和学术基准上的表现,还是超过了人类的平均水平。这里有一个数据是,在律师模拟考中,GPT-4 的成绩排在应试生的前 10% 中,而此前发布的 GPT-3.5,则在倒数 10% 的行列。参加的多种不同领域的专业应试,能够排到多靠前的位置。

  • 在团队进行的多个 GPT-4 与 GPT-3.5 的考试测试中,发现这两个模型间存在很微妙的差异。当任务的复杂性足够高时,GPT-4 比 GPT-3.5 更可靠、更有创意,并且能够处理更细微的指令。

在 GPT-4 发布之前,Open AI 团队花了 6 个月的时间 ,使用对抗性测试程序,以及从 ChatGPT 得到的经验教训,对 GPT-4 进行了迭代调整 ,进而在其真实性、可操控性等方面取得了有史以来最好的结果。

在与当前机器学习模型进行基准评估对比后,GPT-4 大大优于现有的大型语言模型,以及大多数最先进的 (SOTA) 模型。

GPT-4 本次最为令人看重的,还是它接受与处理图像的具体能力。

在官方报告中,团队提供了多个实际交互示例。

还在研究阶段,不公开。

详细版:GPT-4可以接受文本和图像输入,并且这两个是可以掺杂着用,它允许你用跟之前文本一样的使用方式。

一共有7个例子,总结起来,它可以识别搞笑图片,可以做复杂的物理化学之类的题目,可以做看图题,可以读论文,可以识别meme图片,总之,非常的强,可惜还不能开放使用。

理解图片

识别与解析图片内容

解析报表图片并进行汇总

直接回答图片中包含的提问内容

不过,GPT-4 跟 GPT-3.5 类似,对训练数据中断后(2021 年 9 月)所发生的事情不太了解,也会犯一些在我们看来很简单的推理性错误,给用户提供不合理的建议,以及在生成的代码中引入安全漏洞。

对于这些潜在性的危险因素,团队也聘请了来自多个不同行业的专家对模型进行了优化调整,但是其具体效果,还需要等后面场景应用较为广泛后,才能得出结论。

OpenAI 公开的技术报告中,不包含任何关于模型架构、硬件、算力等方面的更多信息。

与之前的 GPT 模型一样,GPT-4 基础模型经过训练可以预测文档中的下一个单词。OpenAI 使用公开可用的数据(例如互联网数据)以及已获得许可的数据进行训练。训练数据是一个网络规模的数据语料库,包括数学问题的正确和错误解决方案、弱推理和强推理、自相矛盾和一致的陈述,以及各种各样的意识形态和想法。

因此,当提出问题时,基础模型的回应可能与用户的意图相去甚远。为了使其与用户意图保持一致,OpenAI 依然使用强化学习人类反馈 (RLHF) 来微调模型的行为。请注意,该模型的能力似乎主要来自于预训练过程 ——RLHF 不会提高考试成绩(甚至可能会降低它)。但是模型的控制来自后训练过程 —— 基础模型甚至需要及时的工程设计来回答问题。

GPT-4 的一大重点是建立了一个可预测扩展的深度学习栈。主要原因是,对于像 GPT-4 这样的大型训练,进行广泛的特定模型调整是不可行的。团队开发了基础设施和优化,在多种规模下都有可预测的行为。为了验证这种可扩展性,他们提前准确地预测了 GPT-4 在内部代码库(不属于训练集)上的最终损失,方法是通过使用相同的方法训练的模型进行推断,但使用的计算量为 1/10000。

尽管功能已经非常强大,但 GPT-4 仍与早期的 GPT 模型具有相似的局限性,其中最重要的一点是它仍然不完全可靠。OpenAI 表示,GPT-4 仍然会产生幻觉、生成错误答案,并出现推理错误。

目前,使用语言模型应谨慎审查输出内容,必要时使用与特定用例的需求相匹配的确切协议(例如人工审查、附加上下文或完全避免使用) 。

总的来说,GPT-4 相对于以前的模型(经过多次迭代和改进)已经显著减轻了幻觉问题。在 OpenAI 的内部对抗性真实性评估中,GPT-4 的得分比最新的 GPT-3.5 模型高 40%:

  • GPT-4 的训练在去年 8 月完成,剩下的时间都在进行微调提升,以及最重要的去除危险内容生成的工作。

  • OpenAI一直在对GPT-4进行迭代,以使其更加安全。

  • GPT-4与以前的模型一样具有风险,但由于其额外的能力,从而会导致新的风险。

  • 邀请了50多名专家对模型进行对抗测试,以提高模型的安全性能。

  • GPT-4在RLHF训练过程中加入了额外的安全奖励信号,通过训练模型拒绝对此类内容的请求来减少有害的输出。

  • 为了防止模型拒绝有效请求,收集了多样化的数据集,并在允许和不允许的类别上应用安全奖励信号。

  • 缓解措施显著提高了GPT-4的安全性能,例如将模型对于不允许内容请求的响应率降低了82%。 对敏感请求(如医疗建议和自我伤害)的响应符合政策的频率提高了 29%。

为了让开发者能更好的评测 GPT-4 的优缺点,OpenAI 的技术团队还开源了 OpenAI Evals 项目,可用于自动评估 AI 模型性能的框架,以便用户能更专业的指导团队,进一步优化与改进模型。

该项目具有以下功能特性:

  • 使用数据集生成提示;

  • 衡量 OpenAI 模型提供的补全质量;

  • 比较不同数据集和模型的性能。

  • GPT-4 发布后,OpenAI 直接升级了 ChatGPT。ChatGPT Plus 订阅者可以在 chat.openai.com 上获得具有使用上限的 GPT-4 访问权限。

  • OpenAI 已面向开发者开放 GPT-4 API 的申请通道,大家想提前使用的话,可以先提交申请,进入 waitlist 中等待通过。(GPT-4 API 它使用与 gpt-3.5-turbo 相同的 ChatCompletions API)。

  • 申请通道:https://openai.com/waitlist/gpt-4-api

  • ChatGPT Plus 订阅会员,则可以直接获得 GPT-4 的试用权限,无需等待。不过有一定限制,在 4 小时内,最多只能发布 100 条信息。获得访问权限后,用户当前还是只能向 GPT-4 模型发出纯文本请求,图像请求可能得等稍晚一些时间才对外开放。

  • 通过注册waitlist,开发人员可以获得访问 GPT-4 API 的权限

  • AI研究员可以通过Researcher Access Program申请补贴访问

  • 获得访问权限后,可以向 GPT-4 模型发出纯文本请求(图像输入仍处于有限的 alpha 阶段)

  • 价格为每 1k 个 prompt tokens 0.03 美元和每 1k 个 completion tokens 0.06 美元

  • 默认速率限制为每分钟 40k 个tokens和每分钟 200 个tokens 请求

  • GPT-4 的上下文长度为 8,192 个tokens

  • 有限访问 GPT-4-32k(32,768-上下文版本)的价格为:每 1k prompt token 0.06 美元和每 1k completion token 0.12 美元

  • 处理对 8K 和 32K 引擎的请求的速率可能会不同,因此可能会在不同时间获得对它们的访问权限

原文链接:https://blog.csdn.net/liluo_2951121599/article/details/129544327

相关推荐

阅读榜

点击榜

hellenandjeckett@outlook.com

加入QQ群:849112589

回顶部