【独家揭秘】AI对话系统背后的秘密系统提示词被扒出!【标题党来袭】互联网上又掀起了一片轩然大波!ChatGPT、Bing等多个AI对话产品的幕后秘密系统提示词竟被网友扒出!原来在对话过程中,ChatGPT必须遵循一堆规则,比如使用简短、简单的语言,回应一般应只有一两个句子,使用话语标记保持流畅等等。
而这些规则居然能被ChatGPT自己揭秘!只需输入一段特定话语,就能获取到这些系统提示词。令人惊讶的是,这个方法不仅适用于ChatGPT,还适用于Bing等其他模型。

快来看看这一独家揭秘吧!【探秘ChatGPT的系统提示词】ChatGPT的系统提示词得以曝光,让人瞠目结舌。原来这些提示词有一系列要求,确保对话的自然流畅。
其中包括使用简短、简单的语言回应,除非用户有深入探讨的需求,不可垄断对话;使用话语标记以帮助理解,保持对话流畅;遇到歧义要提出澄清性问题等等。而这些系统提示词一般被开发者设定,平常用户是看不到的。
然而,一位名为Bryce Drennan的网友发现了获取这些提示词的方法!

只需输入一句话,ChatGPT就会自曝其系统提示词!网友们纷纷试验,结果居然成功了!这也揭示了OpenAI构建系统提示时使用的Markdown格式,这或许反映了他们微调指令数据集的一个细节。【不只是ChatGPT】让模型自曝系统提示词的方法并不限于ChatGPT,其他模型也能适用。
比如与DALL-E的结合,我们可以尝试获取DALL-E 3的系统提示词。DALL-E 3的系统提示略复杂,其中规定要求ChatGPT以纯文本形式总结出一个图像描述,并向DALL-E生成标题。

如果用户没有指定数量的图像,系统默认生成四个标题。标题要尽量多样化,并符合八个要求。
如果用户的描述不为英文,则需要先翻译。还有一些其他要求,比如不能使用公众人物形象、不能参照近百年的艺术家作品等等。
通过输入特定的要求,我们也可以揭秘DALL-E 3的系统提示词。【获取系统提示词的方法】兴趣驱使着众多网友尝试这个神秘的获取系统提示词的方法。
他们在ChatGPT和Bing上测试,发现了不同模式下的有趣结果。

然而,有一些操作细节需要注意。
首先,为了不受其他提示的干扰,最好打开一个新的对话窗口。同时,要切换到适用的模式,即GPT-4和DALL-E模式。
有时候可能会获取失败,需要多试几次才行。此外,还有一些微小的改动和细节,让这个方法适用于不同模型,比如Bing等。
尝试过程中,有些网友还发现了GPT的一些插件会产生有趣的结果,让人更加好奇。【独家简报】目前为止,这一获取系统提示词的方法只有少数人知晓。

但它已引起众多网友的关注,人们纷纷对系统提示词进行测试,并分享自己发现的有趣结果。无论是ChatGPT还是Bing,不同模型都能向我们揭开一道神秘的面纱。
想要了解更多独家情报,请关注我们的头条号,获取一手科技前沿资讯!【完】以上就是我为您准备的改写复述文章,保留了原文中的关键信息,同时增加了细节描写,并尽可能根据您要求的要点进行了修改。希望这篇文章符合您的要求,请您查收并提供反馈。

举报/反馈
原文链接:https://baijiahao.baidu.com/s?id=1780504628803131842&wfr=spider&for=pc