人工智能大数据,工作效率生产力
Ctrl + D 收藏本站,更多好用AI工具
当前位置:首页 » AI资讯

AI对汽车行业的影响

2024-09-28 21

首先,关于人工智能(AI)的几个观点:它是一个错误的名称!AI既不是人工,也不是智能。如果没有大量人为的训练,AI无法识别事物。在识别、理解和分类物体或场景方面,AI表现出与人类完全不同的逻辑。标签意味着AI类似于人类智能 ……

其实,不是这样的。

AI往往缺乏任何常识,很容易被欺骗或破坏,并可能以意外和不可预测的方式失败。换句话说,需要谨慎行事。

本文探讨了AI技术是如何影响汽车行业的。我们将考虑以下这些问题。

AI如何解决一个问题?

AI在汽车中的优势和缺点是什么?

在汽车中使用AI的独特挑战是什么?

哪些汽车电子领域正在使用AI?

哪些未来的汽车电子领域将依赖AI技术?

AI的开发分三个阶段:建立AI模型,使用相关数据训练AI模型,最后是使用训练好的模型来解决问题,即推理阶段。

大多数AI模型是基于多种类型的神经网络和学习网络。例如CNN(Convolutional Neural Networks)、GAN(Generative Adversarial Networks)、DRL(Deep Reinforced Learning)、Federated Learning、Transfer Learning和其他。每一种都有不同的优缺点,所有类型都在迅速发展。

下表总结了AI技术的优缺点,以及安全考量和拟议的法规。

eaa0b8af537b634

AI的优势

AI主要用于解决复杂问题。由于汽车行业存在很多难题,AI在推动汽车技术发展方面发挥着越来越大的作用。自动驾驶汽车的前景主要取决于新的AI技术。人们似乎一致认为,神经网络的发展是未来AV部署成功的主要途径。

好消息是,AI,尤其是神经网络技术还处于早期研发阶段,这意味着突破性创新未来可期。随着全球范围内在持续加码对AI的投资,可以肯定的是,AI和神经网络将解决更多的复杂问题,包括汽车行业的挑战。

AI的缺点开发和部署AI技术的挑战之一是对神经网络的充分训练。一般来说,问题越复杂,神经网络模型就越复杂。这意味着需要大型模型。训练需要大量的资源和专业知识来设计和测试AI模型,依靠大型数据集来验证模型的性能。

AI模型需要广泛的训练,这意味着需要大型数据库。更大的训练数据集正在变得可用,但训练仍然是一项耗时而昂贵的任务。大多数训练数据也必须由人类来标注,以使AI模型可以学习并变得成熟。而越来越多的人也在担心,偏见(bias)的问题也在悄悄地进入训练数据。

然后是黑箱问题:仍然很难确定AI模型如何做出决定。这种模糊性对自动驾驶系统来说仍然是一个大问题,需要更好的解决方案。

另一个问题涉及模型对微小数据变化的敏感性。这种脆弱性造成了安全隐患,包括黑掉自动驾驶系统的可能性,以及由此对AV安全造成的威胁。缺乏AI专业知识是汽车和其他行业的另一个大缺点,这一技能差距不可能很快得到弥补。

解决问题的推理阶段也有弊端。大型模型,特别是用于AV的模型,需要巨大的计算资源来压缩传感器数据并支持复杂的软件。这些资源也需要功耗,而功耗在汽车应用中总是有限的。

新兴技术将提高能力并降低推理成本,包括新兴的AI芯片技术、激光雷达的价格下降和传感器性能的提高。

推理的最大缺点是黑箱问题,即AI的可解释性。AI系统仍然无法解释他们是如何做出决定的,这就造成了一系列AI的信任问题。对于汽车应用来说,这是不能接受的。

AI的安全性

汽车AI对安全的要求比其他消费领域高得多。因此,必须更加重视AI的安全和研发。为此,Georgetown大学的CSET(Center for Security and Emerging Technology)发布了一份开创性的报告,研究AI的意外后果和潜在影响。

CSET的报告确定了AI故障的三种基本类型:鲁棒性、规范性和保证性故障。鲁棒性故障是指AI系统收到异常或意外的输入,导致系统故障。在规范性故障中,AI系统试图实现与设计者意图有细微差别的东西,导致意外的行为或副作用。保证性故障意味着AI系统在运行过程中不能被充分监控或控制。

这份报告还列举了AI意外崩溃的例子,并建议采取行动降低风险,同时使AI工具更加可信。

可解释的人工智能,即XAI(Explainable AI),是一种缓解黑箱效应的方法,可以更好地理解哪些数据是需要用来提高模型的准确性。由国防部高级研究计划局赞助的XAI研究旨在开发机器学习技术,产生更多可解释的模型,同时保持高水平的学习性能和准确性。XAI还将使人类用户能够理解、信任和管理AI模型。XAI还可以描述自己的能力,并提供对其未来行为的洞察。

AI法规

AI和GDPR(General Data Protection)是紧密相连的。GDPR影响了欧洲和其他地区的AI发展。该法规明确涵盖了自动化、个人决策和剖析。该规则保护消费者免受两者的法律后果。在这种情况下,自动化、个人决策包括AI平台在没有任何人工干预的情况下做出的决定。剖析是指对个人数据的自动处理,以评估个人。

对于汽车应用,这主要影响到内容交付系统和用户界面。

欧盟正在准备一项类似于GDPR的AI法规,这项新规则可能会像GDPR一样产生广泛影响。今年4月,一份代表监管AI的法律框架的提案草案发布。

欧盟的提案旨在识别高风险的AI技术及其应用,这些技术针对的是可能危及公民安全的交通等关键基础设施。这意味着AV将成为AI监管的目标。

根据欧盟提议的AI立法,罚款最高可达3000万欧元,或公司全球营收的6%,以较高额度为准。GDPR下的最高罚款为2000万欧元,或全球营收的4%。

汽车领域的AI

下表总结了与汽车电子结合的AI技术。不包括用于汽车制造、供应链管理、质量控制、营销和类似功能的AI,尽管在这些领域AI正在做出重大贡献。

81b2289a8c002b7

由神经网络产生的决策必须是可以理解的。如果不这样,就很难理解它们是如何工作的,也很难去纠正错误或偏见。

神经网络的决策也必须是稳定的。也就是说,尽管视觉数据有微小的差异,但仍然要保持稳定。这对AV来说尤其重要。例如,停车牌上贴上黑白胶带就能让基于AI的视觉系统失效。这是一个无法接受的例子。

AV应用需要更好的技术来理解边缘案例或以前的软件行驶训练没有经历过的新的案例。这仍然是大量部署AV系统的一个关键制约因素。

目前AI的用例

语音识别和用户界面一直是汽车领域最成功的基于AI的应用。这些应用利用智能手机和消费类电子产品中的AI技术,部署在信息娱乐和HMI中。Alexa、CarPlay、Android Auto和类似产品已经被使用在大多数新车型中。

远程诊断是一个领先的远程信息技术应用。例如,AI技术的加入可以帮助预测未来的设备故障。

基于AI的视觉系统被用于配备ADAS汽车的DMS。随着AI技术的进步,DMS将出现快速增长。

许多ADAS功能也使用AI技术,包括ACC到各种类型的自动泊车功能。L1和L2的汽车将在新车型中使用越来越多的AI技术。

新兴的AI用例

多家车厂正在搭载有限的驾驶巡航功能。它们通常被称为L2+,但目前的标准中不包括这个术语。称它们为“Autopilot”是错误的,因为它让消费者混淆概念,错认为比现有的能力更强。而且它们已经造成了许多事故。

L3车辆发布已经有几年了,但由于监管限制,部署也受到了限制。允许L3的法规正在出现,L3车辆使用了很多AI技术。

OTA软件和网络安全功能都在通过嵌入式软件客户端以及基于云的服务和分析软件增加AI技术的使用。

一个新兴的AI应用是AV的开发和测试。大约有5000辆AV处于测试和验证阶段,主要是在中国和美国,其中包括自动驾驶运货车、自动驾驶卡车、Robotaxi和固定路线的AV。

未来的AI用例

AV领域是AI技术最有价值和最难的应用。行业目标是实现一个比最好的人类司机更好的软件驾驶程序,同时又没有人类行为的那些缺点。

基于AI技术的软件开发已经成熟。识别和修复软件错误有可能在未来十年通过创新的AI技术产生。

AI技术带来的网络安全进步也许是汽车和其他行业最迫切的需求。这些领域正吸引着大量、持续的投资。

底线

AI技术已经成为汽车行业的主要驱动力。到目前为止,有两家公司在AI技术方面处于领先地位,Nvidia和Tesla。在为创建和使用AI模型提供芯片和软件标准方面,显然Nvidia是领导者。Tesla正在稳步在其Autopilot中部署AI。

与此同时,还有许多公司专注于汽车AI:Mobileye是ADAS领域的领导者,也正在野心勃勃地布局AV,Waymo当然也在其中。

随着人们对安全隐患担忧的增加,AI开发者必须注意这些变化的迹象,以免意外事故扼杀技术创新。排名首位的是解开AI的黑箱,因为这限制了信任系统的部署。在其他方面,训练数据的偏见问题是一个日益严重的问题,难以评估,因此也很难解决。

欧盟正在制定AI相关的法规,其他地区也会跟进。

在可预见的未来,AI开发者在建立安全、强大的自动驾驶系统时必须谨慎行事。

[参考文章]

AI in Automotive: Current and Future Impact — Egil Juliussen

3dc9c52c01b5a73

原文链接:http://m.chinaaet.com/article/3000137459

相关推荐

阅读榜

hellenandjeckett@outlook.com

加入QQ群:849112589

回顶部