2140年 AI将彻底取代人类
来自牛津大学人类未来研究所、耶鲁大学和AI Impacts的多名专家对352名机器学习研究者进行了一场大规模调查,以预测未来几十年人工智能的发展。据研究小组介绍,该项研究在人工智能领域是一个具有大样本的代表性研究,调查了全球1634名机器学习与人工智能领域的相关专家(这些专家均在机器学习领域的两大顶级会议:2015国际机器学习大会与2015神经信息处理系统大会上发布过论文),并收到352份回复。
结果显示,受访者们预计AI将在未来40年内在多个领域赶超人类,例如语言翻译(2024年),卡车驾驶(2027年),零售业(2031年),畅销书写作(2049年),外科医生工作(2053年)。
这群在世界上最了解、最接近AI的人,相信有50%的几率,AI在45年内赶超人类在所有领域的工作,并在122年内让所有的人类工作实现自动化。
这项调查认为,当机器可以独立完成每一项任务,并且完成的比人类更好、成本更低时,就达到了所谓的“HLMI”(高级机器智能,即强人工智能)水平。而“劳动全面自动化”(full automation of labor),指的则是当所有的职业都实现了完全的自动化,即对于任何一种职业,机器都能够以比人类员工更低的成本更好地完成。
预测中值显示,有50%的可能性劳动全面自动化会在122年内实现。即,2140年,人类劳动全面自动化,AI在所有工作岗位上,彻底取代人类。
BBC 基于剑桥大学研究者 Michael Osborne 和 Carl Frey 的数据体系分析了 365 中职业在未来的“被淘汰概率”,其中被AI取代的可能性非常小的职业有艺术家(3.8%)、音乐家(4.5%)、科学家(6.2%)、律师&法官(3.5%)、建筑师(1.8%)、公关(1.4%)、心理医生(0.7%)。
我们会发现,这些职业需要有这些能力:1.社交能力、协商能力、以及人情练达的艺术;2.同情心,以及对他人真心实意的扶助和关切;3.创意和审美。
来分析下,对于这些具有复杂情感体验、合作体系、开创性科研性质的工作,AI可能如何一步步地通过深度学习来完成。
第一步是:增加电脑处理速度,让AI达到人脑的运算能力。现在最快的超级计算机,中国的天河二号,其实已经超过人脑的运算力了,所以并不存在硬件问题。根据摩尔定律的推演预测,支持强人工智能的电脑硬件普及只是迟早的事,并且这个时间已经被计算出来是十年以内。
第二步是:让电脑变得智能。这一步比较麻烦,但已经有方向了,比如通过抄袭人脑、模仿生物演化、电脑自我学习等方法来实现。
既然增加电脑处理速度这一点已经有了解决办法,那么接下来,讲讲究竟如何能让电脑变得智能。
这个神秘力量,就是给予AI以“灵魂”的基石——贝叶斯定理。
贝叶斯定理 AI进化论的基石
创造强人工智能最大的难题,在于如何让AI具有人类的思维和意识。
而这几年,机器智能向“我思故我在”这个哲学命题步步逼近,贝叶斯公式因其分析“条件概率”的强大,为AI提供了灵魂。
贝叶斯定理是18世纪英国数学家托马斯·贝叶斯提出的概率理论。除了贝叶斯,1774年,法国数学家拉普拉斯给出了我们现在所用的贝叶斯公式的表达:
该公式表示在B事件发生的条件下A事件发生的条件概率,等于A事件发生条件下B事件发生的条件概率乘以A事件的概率,再除以B事件发生的概率。公式中,P(A)也叫做先验概率,P(A/B)叫做后验概率。
面对自然语音处理这样的难题,贝叶斯公式也能轻松解决。科大讯飞因为语音识别成为千亿级市值公司,首先得感谢贝叶斯公式和马尔科夫链。语音涉及各种动态语法,但你在现场看到机器翻译的准确性,会感叹这简直就是“神迹”,比大部分现场翻译要强得多。一旦出现条件概率,贝叶斯总能挺身而出。
随着大量数据输入模型进行迭代,随着计算能力的不断提高、大数据技术的发展,贝叶斯公式巨大的实用价值愈发体现出来,得到主流科学界的认可,开始遍布一切领域。语音识别仅仅只是贝叶斯公式运用的一个例子,其实贝叶斯定理的思想已经渗透到AI的方方面面。
单个语音模型的建立让我们看到了贝叶斯定理解决问题的能力,但贝叶斯网络的拓展让我们隐约感觉到了AI背后“天网”的恐怖。贝叶斯公式以严谨的数学形式帮科学家们实现了数理级的运算。人类认知的缺陷越大,贝叶斯网络展示的力量越让人震撼。
利用作为AI人工智能第一课的贝叶斯定理,AI可以给自己注射主观基因。今天一场轰轰烈烈的“贝叶斯革命”正在AI界发生:贝叶斯公式已经渗入到工程师的骨子里,分类算法也成为主流算法。在很多人眼中,贝叶斯定理就是AI进化论的基石。
我们无法预测到贝叶斯公式与计算机结合的真正威力,但可以肯定,经过科技发展,贝叶斯定理可以让AI无限接近,或最终达成真正的人类智能。
硅基生命的强大
硅基生命相比碳基生命,有着显而易见的优势。大部分职业,机器都能够以比人类员工更低的成本更好地完成。强人工智能比起人脑具有太多优势。
首先从硬件上来说:
1.电脑的运算速度和信息传播速度比脑神经元要快了好几个数量级。脑神经元的运算速度最多是200赫兹,今天的微处理器就能以2G赫兹,也就是神经元1000万倍的速度运行。大脑的内部信息传播速度是每秒120米,而电脑的信息传播速度是光速。
2.电脑的容量和储存空间远比人脑要大。人脑大小基本固定,无法后天改变,就算真的把它变得很大,每秒120米的信息传播速度也会成为巨大的瓶颈。电脑的物理大小可以非常随意,使得电脑能运用更多的硬件,更大的内存,长期有效的存储介质,不但容量大而且比人脑更准确。
3.可靠性和持久性。电脑的存储不但更加准确,而且晶体管比神经元更加精确,也更不容易萎缩(真的坏了也很好修)。人脑容易疲劳,但是电脑可以24小时不停地以峰值速度运作。
软件上来说:
1.电脑具有可编辑性,升级性,以及更多的可能性。和人脑不同,电脑软件可以进行更多的升级和修正,并且很容易做测试。电脑的升级可以加强人脑比较弱势的领域,不但能在视觉元件上匹敌人类,在工程元件上也一样可以加强和优化。
2.电脑的集体能力能让人工智能形成强大网络。尽管人类在集体智能上已经碾压所有的物种,但电脑的集体智能更加强大。一个运行特定程序的人工智能网络能够经常在全球范围内自我同步,这样一台电脑学到的东西会立刻被其它所有电脑学得。而且电脑集群可以共同执行同一个任务,因为异见、动力、自利这些人类特有的东西未必会出现在电脑身上。
一个没有体力极限,不会衰老,不惧疾病,智商极高,完全理性的硅基生命,怎么想也比每天都需要吃喝拉撒,经常产生无用情绪,偶尔身体罢工的人类要更加靠谱。保证逻辑和代码不出错,比洞悉把握复杂的意识和人性,绝对要更加纯粹简单。
弱人工智能来了 强人工智能还会远吗
按照人工智能的实力,可将他们分为三类:弱人工智能(擅长于单个方面的人工智能)、强人工智能(在各方面都能和人类比肩)和超人工智能(在几乎所有领域都比最聪明的人类大脑聪明很多)。
现今阶段被科学家定义为弱人工智能时代。其实弱人工智能已经无处不在,如:手机里的地图软件导航、查询天气、Siri;“猜你喜欢”“好友推荐”;世界上最强的跳棋、象棋、拼字棋、双陆棋和黑白棋选手;军事、制造、金融等领域广泛运用各种复杂的弱人工智能。
2000年,高盛在纽约总部的美国现金股票交易柜台雇佣了600名交易员。2018年,交易大厅只剩下两名交易员“留守空房”。用更高的科技取代成本高昂效率低下的人工劳动是所有行业的一大趋势。
2016年白宫发表的《人工智能、自动化及经济》报告中显示,未来十年或二十年,美国9%到47%的工作会受到威胁。也就是说,每3个月约有6%的就业机会将消失。普华永道(PwC)最新公布的研究报告也显示,未来15年内美国近40%的工作岗位都可能会被人工智能和机器人取代。
其他发达经济体也无法避免。报告还显示,在英国未来15年将会有近30%的工作岗位被人工智能和机器人取代,在德国将会有35%的工作岗位被人工智能和机器人取代,在日本将会有21%的工作岗位被人工智能及机器人取代。
计算机科学家Donald Knuth说:“人工智能已经在几乎所有需要思考的领域超过了人类。”
人类正处在弱人工智能时代,那么强人工智能还会远吗?
至少从前几天谷歌助手的表现来看,部分通过图灵测试的强人工智能已经诞生。人类已经有了人工智能的重大突破口。
自然演化花了几亿年时间发展了生物大脑,人类创造出第一个人工智能时,就是在碾压自然演化了。当然,可能这也是自然演化的一部分——可能演化真正的模式就是创造出各种各样的智能,直到有一天有一个智能能够创造出超级智能,而这个节点就好像踩上了地雷的绊线一样,会造成全球范围的大爆炸,从而改变所有生物的命运。
与AI相爱相杀 是人类必经之路
前不久获得年度图灵奖的Alphabet董事长John Hennessy,这位已经65岁的宗师泰斗在Google大会的舞台上激动地抒发:“人们投入(机器学习和人工智能领域)这个领域的研究已经50年了。终于,我们取得了突破。为了实现这个突破,我们所需要的基本计算能力,是之前设想的100万倍。但最终我们还是做到了。这是一场革命,将会改变世界。”
超级文明必将出现,社会运转就必定要更加透明高效。人类不会停下研究AI领域的脚步,但AI形成的硅基文明更有可能成为未来人类文明的竞争对手。
可以确定的是,AI一定会在人类社会里越来越广泛和深入地应用。这是否可以看作是硅基生命对碳基生命社会的逐渐入侵?人类现在就已经无法不依赖AI生存,只是暂时离开智能手机,都能让一个正常的现代人焦虑不已。
人类已经离不开AI了。却不知如何才能消除骨子里对于异己事物潜在的排斥和威胁感。
AI其实并无道德和不道德之分。AI的动机,取决于人类给人工智能设定的目标是什么。为了实现目标,做出毁灭人类的决定和举动,可以是毫无恶意的。它只是为了完成自诞生以来就被设定好的任务。“我对你没有恶意,甚至是为你好,我要毁了你。”毫无自知的恶意,是否比蓄意的恶意更让人头皮发麻。
人类该如何控制自己亲手创造出来的AI?超人工智能的非道德性,是人工智能的危险所在。即使从代码上保证没有漏洞,存在悖论的阿西莫夫三大定律,也无法完美保护人类。从《机器人与帝国》《黑客帝国》《2001太空漫游》中AI的所作所为就可以看出其预示和隐忧。
碳基文明与硅基文明之间,必定产生一场无形战争。
碳基文明的最后结局 主动拥抱AI
面对这一场硅基生命的浩荡入侵,人类已经无法继续无动于衷,保持着乐观或中立的态度。
其实还有一个方法。对于人类来说,最理性的选择就是向硅基文明学习,主动选择拥抱AI。
当未来的算力不再是稀缺物品,碳基生命的灵动和感性,与硅基生命的强大和理性结合,可能让人类文明在面对未来的威胁和挑战时,得以长久延续。
碳基文明数据沉底,硅基文明冉冉新生。
在硅基生命的未来可能世界里,代表着碳基文明的纪念碑上,刻着这样一条时间线:
2018年,AI通过图灵测试。
2063年,强人工智能达成。
2140年,AI彻底取代人类。
这或许就是碳基文明最后的结局。
原文链接:https://www.douban.com/note/670702652/