人工智能大数据,工作效率生产力
Ctrl + D 收藏本站,更多好用AI工具
当前位置:首页 » AI资讯

潘晓明:AI需要大数据、算法、引擎和软件环境支撑

2024-07-18 38

12月18日,由腾讯汽车主办的2018全球汽车AI大会正式拉开大幕,近50位来自全球顶尖科技公司、汽车企业高层以及国内外学术专家齐聚北京,共同为AI与汽车产业的深度融合建言献策。

活动现场,AMD全球副总裁、大中华区总裁潘晓明发表了主题演讲,他表示:AMD认为如果新兴的智能应用要取得成功,其实需要依靠四大要素的支撑:第一是大数据,第二是非常强有力的算法,第三是要有训练和推理的引擎,第四是要有一个易于应用开发的软件环境。

此外,潘晓明表示,AMD在自动驾驶领域还有很多功课要做,目前还是致力于把硬件和软件平台搭建好,才能在这个领域和在整个人工智能领域,包括在汽车领域做更好的尝试。

潘晓明:AI需要大数据、算法、引擎和软件环境支撑

AMD全球副总裁、大中华区总裁潘晓明

以下为发言实录:

潘晓明:大家下午好!非常感谢腾讯汽车的邀请,也非常高兴能够利用这个机会跟大家简单分享一下AMD在人工智能、机器学习方面,包括在这一领域的一些策略和思考。AMD进入到这个领域,目前还处在一个比较前期的阶段,因为我们相信硬件、软件,包括市场的确是一个非常有前景的地方。希望我这次讲完以后,大家能够有一些初步的对AMD的了解。

今天主要讲三个部分的内容,第一是AMD对整个的人工智能市场的粗浅的看法,第二部分讲讲AMD对人工智能、机器学习甚至在汽车领域的一些策略和思考,第三部分给大家做一个简单的实例,在汽车领域里面基本的尝试。

人工智能时代其实早就拉开了序幕,机器学习是其中一个非常重要的技术,的确是给了我们这一代人甚至下一代人巨大的机会和市场的潜力,所以说这个市场是一个非常长期的。而不是说今天就一定怎么样,而是一个非常巨大的市场,而且是要经过三五年各种技术在里面融合互相锤炼的市场。

关于机器智能,AMD认为如果新兴的智能应用要取得成功,其实需要依靠四大要素的支撑:第一是大数据,第二是非常强有力的算法,第三是要有训练和推理的引擎,第四是要有一个易于应用开发的软件环境。这四个部分如果做的非常好,我觉得在很多应用领域里面,尤其是在人工智能领域会得到非常大的快速成长。

先讲讲数据量,因为我们已经从各个方面感受到大数据的趋势了。举个例子,像空客最新的A380-1000承载高达1000名乘客,这个时候他已经使用了很多高端的感应器技术,飞机的机翼大概拥有1万个感应器,这些感应器不断随时采集数据传输到系统之中。这时候如果利用机器学习把这些数据合理地进行分析,我们会得到很多全新的分析和观察,会得到很多有趣的现象。的确,大数据是人工智能领域里面最缺一不可的重要因素。

第二个就是算法。AI技术来到我们身边已经多年了,实际上会回溯到上个世纪五十年代,基础是人的想法都依赖于一系列规则,如果想让计算机跟人一样思考,要制定出一系列的逻辑规则,从而推出一定的结果。对深度学习我们自己的理解是什么呢?那就是真正专注于创造出一些算法。这些算法是从训练中得出来结论的算法,能够真实的把现实发生中的数据做出预测。深度学习是给予计算机从训练中学习的能力,而并非明确的程序指令,目的是创造出一个好的训练模型,以此做出更清晰的预测。算法也起到非常重要的作用。

另外一个非常重要的就是驱动的机器智能负载的引擎到底是什么呢?大家也知道目前的行业里和市场中无外乎有各种不同的解决方案,的确是根据训练和推理的不同需求,基于不同的处理及架构有很多解决方案,包括大家熟悉的CPU,CPU有很多列,有ARM、X86的CPU,GPU也有高性能GPU和其他性能的,APU是CPU+GPU的组合,还有FPGA和ASIC。所有的这些都可以用做训练和推理的引擎,但的确要取决于真正的负载情况。最常用的, 现在目前来说是混合型的,就是CPU+GPU、CPU+FPGA,也就是加速器的概念。这些无外乎两类的应用,一类是训练,一类是推理。在目前的训练中现在是GPU占据了比较主要的作用,因为训练对计算的要求非常大,而GPU在这方面是有非常得天独厚优势的。因为推理不需要那么大的计算量,是小批量的数据,所以我们认为APU、专用集成电路和ASIC和FPGA都可以胜任这部分的任务。

刚才讲了AMD对整个人工智能、机器学习包括机器智能方面的粗略看法,大致是四部分:大数据、算法、计算力、推理和训练引擎包括软件环境。AMD的人工智能策略是什么呢?我们公司比较独特,因为是在全球里唯一一家既能做高性能CPU,又能做高性能GPU的芯片公司。这一点由于我们的位置比较独特,所以我们在人工智能的策略基本上就分成两大块,一块是硬件,硬件是利用CPU进行高性能计算和推理,利用我们的GPU为数据中心进行训练和推理,利用我们的APU来进行边缘推理。

软件方面我们走了另外一个体系,创造开源的生态,提供创新与合作,一会会一一跟大家简单分享,以此给我们所有的合作伙伴更多的机会,大家共同参与来创造开源的软件环境。

我们11月在美国,包括11月中旬在北京真正做了一个我认为非常具有领导地位的宣布,就是我们是第一家将会推出7纳米,基于第二代微架构的骁龙处理器的公司,将在2019年发布,这是我们的CPU,代号为罗马。目前的样片已经推给用户去做了。

第二个,我们也同时做了另一个重要发布,把GPU用在了7纳米技术,主要用在机器学习、高性能计算、云计算这一些领域,所以这个产品叫MI60,这款也是全球首款的7纳米的GPU,将增强深度学习的运算性能和运算效率。

大家可以看到,有7纳米的CPU,7纳米的GPU,我刚才讲到7纳米CPU和GPU这种加速器的概念,AMD具有得天独厚的优势。用7纳米的CPU和7纳米的GPU,通过高速互联可以给人工智能提供非常强有力的硬件的解决方案。

刚才讲了AMD在人工智能策略是两方面:硬件和软件,下面我简单来谈谈软件方面。我们可能跟别的友商不太一样,实际上在三年前AMD就开始打造了ROCm,这个还没有起很好的中文名字的产品,但是这个名字也非常容易被记住。三年前我们开始打造机器学习的开源平台,相信开源的做法有助于推动创新,并促进所有的社区合作伙伴共同参与。我相信现在目前的行业和产业都喜欢开源,因为大家可以一起创新,不会被封闭的系统所限制。目前发布了ROCm2.0版本,增强了对新的机器学习框架的支持,也更新和优化了数学库,如今上传到Linux内核发行版。所以在Gihub上,你可以看到所有的Linux+ROCm的解决方案。从这张图大家可以看到最底层GPU、CPU、APU,包括所有不管是AMD,还是哪一家的产品。再往上是ROCm和中间件,AMD采用的策略这些东西都是开放的,希望所有的伙伴来一起去开放、一起去做,这样在上面是Framework框架,再往上就是应用软件。

所以大家想想,我们的策略是出色的7纳米CPU+GPU,再加上出色的开源社区,大家可以想象未来的两三年开放的系统将会有更大的空间,能够满足各种的AI应用。

这张图主要讲了现在目前我们的ROCm平台得到了开源社区的全域用户,很多的开源框架,包括编译去和开发工具的厂商都在里面。我们最近也跟百度的Paddle Paddle合作,让他们把现在的开源框架在AMD上运行,目前的社区正在不断壮大。

刚才我讲了AMD的第二部分,就是我们自己对人工智能方面的策略,也就是硬件和软件的部分。

最后跟大家分享一个应用案例,就是跟highwai的公司,用AMD的CPU和7纳米的GPU如何帮助自动驾驶车辆做机器学习。大家知道训练自动驾驶车需要收集很多资料,如果全都是靠着真正的驾驶来收集资料是太慢了,效率也非常低。因为即使收集了1000万公里的资料,可能也就是一两起的车祸,这种还是远远不够去满足自动驾驶需要收集的大量部署。这时候必须通过模拟产生大量的数据,也可以产生一些极端的案例,用这些数据去训练自动驾驶。我们目前跟highwai公司一起合作,大概做了模拟、训练、验证、部署四个部分。

模拟就像玩驾驶的游戏,在各个城市收集数据,可以每秒30次的频率来记录这些汽车看到和感知到的每个场景中的每个细节,比如汽车、行人和每个对象的速度、姿势,每分钟可以收到30GB的数据。在模拟阶段产生收集数据的时候的确需要大量的系统带宽和高效率的CPU、GPU内核。拿好了的这些模拟数据再放到GPU的训练神经网络进行训练,最后是进行验证,验证成功后才能真正被部署到现实中。这是整个目前在汽车领域里的四个步骤。

在自动驾驶领域还有很多功课要做,但是的确从AMD的角度来讲,目前我们还是致力于很好地把硬件和软件平台搭建好,在这个领域真正在整个人工智能领域,包括在汽车领域做更好的尝试。

总结来讲,我们现在在人工智能解决方案有这么几个优势。由于我们是唯一一家能提供高性能CPU和高性能GPU的公司,所以我们有一些独特的优势,比如说:

第一,高带宽芯片互联用我们的CPU和GPU通过中间的独特的技术,高速的互联CPU和GPU。

第二,采用了HBM的高带宽的显存,这对于机器学习是非常重要的。

第三,我们是非常强有力的多核心,像7纳米的罗马大概是64核的CPU。

第四,开放的软件生态环境,所以有非常棒的硬件解决方案加软件生态环境,这些搭建起来相信能够满足于在人工智能、机器学习各方面的应用,包括汽车的应用。

谢谢大家!

潘晓明:AI需要大数据、算法、引擎和软件环境支撑

原文链接:https://auto.qq.com/a/20181218/010782.htm

相关推荐

阅读榜

hellenandjeckett@outlook.com

加入QQ群:849112589

回顶部