正如iPhone在2007年开启了智能手机时代,ChatGPT在 2023年开启了人工智能时代。很荣幸我们赶上了这个历史时刻。那怎么理解这个新时代呢?要想知道 ChatGPT 究竟是什么,我们必须先考虑更大的问题:AI究竟是一种什么智能?
《荀子·劝学》中的一段话,正好可以用来描写 AI能力的三重境界。
第一重境界是“积土成山,风雨兴焉”。参数足够多,训练达到一定的积累,你就可以做一些事情。比如AlphaGo(阿尔法围棋)下围棋。
第二重境界是“积水成渊,蛟龙生焉”。模型再大到一定程度,就会涌现出一些让人意想不到的神奇功能。比如,AlphaGo Zero不按人类套路下围棋,大语言模型的思维链。
第三重境界是“积善成德,而神明自得,圣心备焉”。这就是 AGI了,也许它产生了自我意识,甚至有了道德感。
我们已经知道大语言模型有“开悟”,有“涌现”,有思维链,所以才有现在如此神奇的各种功能。但我们还需要进一步理解GPT:它跟人脑到底如何对比?它有什么限制?有没有它不擅长的东西。
GPT是语言模型,它是用人的语言训练出来的,它的思维很像人的大脑,而不像一般的计算程序。
不论人脑、GPT还是计算机都处理不了世间的所有计算。
更致命的是,到目前为止,GPT的神经网络是纯粹的“前馈”网络,只会往前走,不会回头,没有训练,这就使得它连一般的数学算法都执行不好。这就是GPT的命门——它是用来思考的,不是用来执行冷酷无情的计算指令的。
语言模型并不是用“语言”推理的,它是用语义向量来推理的。一切语义都是关系,一切关系都是数学。
不论你输入的提示语是哪种语言,模型只在乎其中的语义。它真正处理的是向量,所以思考过程会从神经网络中同样的地方走,结果当然就是一样的。这就如同我的大部分物理专业知识是用英文学的,但是你要是问我一个物理问题,用中文还是英文对我没什么区别。我说不清自己是用英文还是用中文思考物理的,我就是直接思考。
AI并不是用语言思考的,它是用语义思考的———它是用语言表象背后的本质思考的。
我们此刻正处在人工智 能的“中间时代”(The Between Times),也就是未来已经到来,只是还没有带来很大效益。他们认为,通用技术要真正发挥生产力效能,需要经过三个阶段。
第一个阶段叫“点解决方案”( The Point Solution ), 是简单的输入端替换。 比如,用灯泡比蜡烛方便一点,用电力做动力有时候会比蒸汽动力便宜一点,你可能会有替换的意愿。你的生活方便了一点点,你的成本降低了一点,但是仅此而已。
第二个阶段叫“应用解决方案”(The Application Solution), 是把生产装置也给更换了。 以前的工厂用蒸汽做动力时,都是一根蒸汽轴连接所有机器, 蒸汽一开,所有机器都开动。改用电力之后,工厂发现,如果每台机器都有独立的电源,那就完全可以用哪台开哪台,岂不是更省钱?
但这并不容易,因为这意味着你必须对机器进行改造,什么机床、 钻头、金属切割器、压力机,都得根据独立电源重新设计。这是需要时间的。
第三个阶段叫“系统解决方案”(The System Solution ), 是整个生产方式的改变。
蒸汽时代的厂房,因为要用到蒸汽轴,所有机器都必须布置中央轴附近。用上电力,你可以随处安装插头,机器可以放在工厂里任何一个位置,那么你就可以充分利用空间,没必要把所有机器
集中在一起。这就使得“生产流水线”成为可能。这已经不是局部的改进,这要求生产方式和组织方式都得到系统性的变革。
AI也会是如此。到目前为止,我们对AI的应用还处在点 解决方案和一定程度上的应用解决方案阶段,并没达到系统解决方案阶段。这就是为什么AI还没有发挥最大的作用。
现在的趋势就是,从个别公司在个别任务上使用AI到系统性地使用AI,再到整个社会围绕 AI展开。AI会让我们的社会变得更聪明。 如果将来到处都是 AI,我们就可以忘记 AI——我们只要模模糊糊地知道什么行为好、什么行为不好,而不必计较背后的数字。AI会自动引导我们做出更多好的行为, 也许整个社会会因此变得更好。
会不会被 AI抢工作都是小事了,现在的大问题是 AI对人类社会的统治力———以及可能的破坏力。华尔街搞量化交易的公司已经在用AI直接做股票交易了,效果很好。可是 AI交易是以高频进行的,在没有任何人意识到之前就有可能形成一个湍流,乃至引发市场崩溃。这是人类交易员犯不
出来的错误。 美军在测试中用AI操控战斗机,AI的表现已经超过了人类飞行员。如果你的对手用 AI,你就不得不用 AI。那如果大家都用AI操控武器,乃至进行战术级的指挥,万一出了擦枪走火的事儿,算 谁的呢?
决策=预测+判断。
预测,是告诉你发生各种结果的概率是多少;判断,是对于每一种结果,你在多大程度上愿意接受。把决策权交给 AI会让人很难受。AI再厉害,我 们也不愿意把它奉为神灵——这一节说的正是让AI最好老老实实扮演助手或者祭司的角色,拍板权还是应该在人的手里。
AI式教育最大的问题是学生缺乏自主性。什么都是别人要他做,而不是他自己要做。机器天生就是被动的。人最不同于机器的特点就是想要主动。从小受气、在家和学校处处被动的人,等长大后真可以主动了,往往不会往正事上主动
民众跟政府的关系很像人和AI的关系:民意就是prompt,政府操作就是生成,选举就是选择。
怎样培养门槛领导力呢?查特拉思说有4个途径:静心沉思, 自主思考,具身智能,增长意识。关键在于,这些都不是AI能有的智能。
AI时代的商业要求你认识自己、认识你的团队、认识你的客户,要求你有情感智能和存在智能。具身智能,是通过身体去体察自己和别人的情感。门槛领导力还包括抒发情绪,这也需要身体。有时候团队需要你讲几句话来鼓舞人心或者感染气氛,你怎么说好呢?
AGI 时代的门槛领导力要求你具备三种能力,它们涉及对复杂事物的处理。
暴力破解已经让语言模型如此强大,下一步是什么呢?是让它的结构更聪明, 以及对很多人来说更重要的是,对AI的驯化。
我们前面讲了很多AI什么时候、如何才能有情感能力,还有人类的情感能力是不是独特的,以及到那时我们会不会把 AI 当成真人。这些讨论中忽略了一点,那就是至少在比较浅的层面上,人们很容易把机器当真人。
中文世界有个流行的说法,说对于 AI和人类未来的关系,有三种信仰。看看你相信哪一种。
第一种是“降临派”,认为AI将主宰人类。 比如假设OpenAI发明了最强 AI, 也许是GPT-6, 几乎无所不能, 别的公司再也没法跟它抗衡⋯ ⋯ 于是以 OpenAI为代表的一批精英人物就用最强AI统治人类,甚至干脆就是最强 AI直接统治人类。
第二种是“拯救派”,认为科技公司会找到某种保护机制, 比如在技术上做出限制,确保人类能够永远控制AI。AI只是人的助手和工具,而绝不能统治人类。
第三种是“幸存派”,认为 AI太强了,而且会失控, 以至于根本不在乎人类文明,甚至会对人类作恶。人类只能在AI肆虐的环境中寻找幸存的空间。
凭感觉选择你更相信哪一种可能性意义不大,我们需要强硬的推理。前文探讨了一些基于经济、社会、心理和商业实践的推测性想法,那些想法很有道理,但是还不够硬。正如我在本书前
面所说,我们这个时代需要自己的康德———得能从哲学上提供强硬道理。
在机器自动化的时代,人到底还有啥用?
我们意识到,形式逻辑只能用于解决简单的、参数少的、 最好是线性的问题;对于真实世界中充斥的像如何控制磁场线 圈才能得到特定形状的等离子体这种复杂的、参数多的、非线性的问题,终究只能依靠神经计算。
所以我们得到的第一个教训是,直觉高于逻辑。
世间几乎所有力量的增长都会迅速陷入边际效益递减,从而变慢乃至停下来,于是都有上限。唯独计算机算力的增长,目前似乎还没有衰减的迹象,摩尔定律依然强劲。
如果这个世界真有神,算力就是神。 你要理解这个力量,拥抱这个力量,成为这个力量。
GPT 可以说已经是一个自身具足的智能,但是我们跟它交流还是得讲技巧和策略。现在有个专门研究怎么跟AI交流的学问叫 “提示语工程”( Prompt Engineering)。这就如同要想让一个
魔法发挥最大的效力,你得会念咒语一样。
已经有一些公司提供这样的专门服务——你可以用自己公司的所有内部文档训练一个 AI。以后你要用到公司哪个知识,不用翻找也不用查阅,直接问这个 AI就行。
那我们设想,如果给每本电子书、每个作者都做一个 bot,你可以用跟作者对话的方式直接学习,这岂不是很好吗?
事实上,GPT 不但让编程更容易,而且让编程更值得了。因为你现在可以在程序里调用AI!程序里有了 AI,那绝对是画龙点睛,它就活了,它可以做各种各样神奇的事情。
主要有三个应用场景:改写、调研和写作。
炼制大模型主要分四步:架构、预训练、微调和对齐。
想要少犯错、不平庸,非常困难,因为你是在跟自己的感性本能作对。你需要比你的一些神经网络凶。
简单说,阿尔特曼想要系统性地改变世界。 他不只是想在某几个领域做一些事情,而是想彻底改变所有人的生活;他不但要进行单点突破,还要把各个突破联系起来,对世界做出一个协调性的、统筹性的安排。 据我所知,阿尔特曼正在做和打算做的事情至少包括以下5项:
1.实现和管理 AGI;
2.用核能、 生物科技和 AI 全面升级现代生活方式;
3.成立一个由企业家组成的超级组织, 改善资本主义经济;
4.建立一个“宪章城市”,测试未来的基础设施和管理方式;
5.给普通人提供全民基本收入。
原文链接:https://blog.csdn.net/weixin_40929413/article/details/138463789