首先,关于人工智能(AI)的几个观点:它是一个错误的名称!AI既不是人工,也不是智能。如果没有大量人为的训练,AI无法识别事物。在识别、理解和分类物体或场景方面,AI表现出与人类完全不同的逻辑。标签意味着AI类似于人类智能 ……

 

其实,不是这样的。

 

AI往往缺乏任何常识,很容易被欺骗或破坏,并可能以意外和不可预测的方式失败。换句话说,需要谨慎行事。

 

本文探讨了AI技术是如何影响汽车行业的。大家将考虑以下这些问题。

 

AI如何解决一个问题?

AI在汽车中的优势和缺点是什么?

在汽车中使用AI的独特挑战是什么?

哪些汽车电子领域正在使用AI?

哪些未来的汽车电子领域将依赖AI技术?

 

AI的开发分三个阶段:建立AI模型,使用相关数据训练AI模型,###后是使用训练好的模型来解决问题,即推理阶段。
大多数AI模型是基于多种类型的神经网络和学习网络。例如CNN(Convolutional Neural Networks)、GAN(Generative Adversarial Networks)、DRL(Deep Reinforced Learning)、Federated Learning、Transfer Learning和其他。每一种都有不同的优缺点,所有类型都在迅速发展。

 

下表总结了AI技术的优缺点,以及安全考量和拟议的法规。

 

 

 

AI的优势

AI主要用于解决复杂问题。由于汽车行业存在很多难题,AI在推动汽车技术发展方面发挥着越来越大的作用。自动驾驶汽车的前景主要取决于新的AI技术。人们似乎一致认为,神经网络的发展是未来AV部署成功的主要途径。

 

好消息是,AI,尤其是神经网络技术还处于早期研发阶段,这意味着突破性创新未来可期。随着全球范围内在持续加码对AI的投资,可以肯定的是,AI和神经网络将解决更多的复杂问题,包括汽车行业的挑战。

 

AI的缺点开发和部署AI技术的挑战之一是对神经网络的充分训练。一般来说,问题越复杂,神经网络模型就越复杂。这意味着需要大型模型。训练需要大量的资源和专业常识来设计和测试AI模型,依靠大型数据集来验证模型的性能。

 

AI模型需要广泛的训练,这意味着需要大型数据库。更大的训练数据集正在变得可用,但训练仍然是一项耗时而昂贵的任务。大多数训练数据也必须由人类来标注,以使AI模型可以学习并变得成熟。而越来越多的人也在担心,偏见(bias)的问题也在悄悄地进入训练数据。

 

然后是黑箱问题:仍然很难确定AI模型如何做出决定。这种模糊性对自动驾驶系统来说仍然是一个大问题,需要更好的解决方案。

 

另一个问题涉及模型对微小数据变化的敏感性。这种脆弱性造成了安全隐患,包括黑掉自动驾驶系统的可能性,以及由此对AV安全造成的威胁。缺乏AI专业常识是汽车和其他行业的另一个大缺点,这一技能差距不可能很快得到弥补。

 

解决问题的推理阶段也有弊端。大型模型,特别是用于AV的模型,需要巨大的计算资源来压缩传感器数据并支撑复杂的App。这些资源也需要功耗,而功耗在汽车应用中总是有限的。

 

新兴技术将提高能力并降低推理成本,包括新兴的AI芯片技术、激光雷达的价格下降和传感器性能的提高。

 

推理的###大缺点是黑箱问题,即AI的可说明性。AI系统仍然无法说明他们是如何做出决定的,这就造成了一系列AI的信任问题。对于汽车应用来说,这是不能接受的。

 

 

AI的安全性

 

汽车AI对安全的要求比其他消费领域高得多。因此,必须更加重视AI的安全和研发。为此,Georgetown大学的CSET(Center for Security and Emerging Technology)发布了一份开创性的报告,研究AI的意外后果和潜在影响。

 

CSET的报告确定了AI故障的三种基本类型:鲁棒性、规范性和保证性故障。鲁棒性故障是指AI系统收到异常或意外的输入,导致系统故障。在规范性故障中,AI系统试图实现与设计者意图有细微差别的东西,导致意外的行为或副作用。保证性故障意味着AI系统在运行过程中不能被充分监控或控制。

 

这份报告还列举了AI意外崩溃的例子,并建议采取行动降低风险,同时使AI工具更加可信。

 

可说明的人工智能,即XAI(Explainable AI),是一种缓解黑箱效应的方法,可以更好地理解哪些数据是需要用来提高模型的准确性。由国防部###研究计划局赞助的XAI研究旨在开发机器学习技术,产生更多可说明的模型,同时保持高水平的学习性能和准确性。XAI还将使人类用户能够理解、信任和管理AI模型。XAI还可以描述自己的能力,并提供对其未来行为的洞察。

 

AI法规

AI和GDPR(General Data Protection)是紧密相连的。GDPR影响了欧洲和其他地区的AI发展。该法规明确涵盖了自动化、个人决策和剖析。该规则保护消费者免受两者的法律后果。在这种情况下,自动化、个人决策包括AI平台在没有任何人工干预的情况下做出的决定。剖析是指对个人数据的自动处理,以评估个人。

 

对于汽车应用,这主要影响到内容交付系统和用户界面。

 

欧盟正在准备一项类似于GDPR的AI法规,这项新规则可能会像GDPR一样产生广泛影响。今年4月,一份代表监管AI的法律框架的提案草案发布。

 

欧盟的提案旨在识别高风险的AI技术及其应用,这些技术针对的是可能危及公民安全的交通等关键基础设施。这意味着AV将成为AI监管的目标。

 

根据欧盟提议的AI立法,罚款###高可达3000万欧元,或企业全球营收的6%,以较高额度为准。GDPR下的###高罚款为2000万欧元,或全球营收的4%。

 

汽车领域的AI

下表总结了与汽车电子结合的AI技术。不包括用于汽车制造、供应链管理、质量控制、营销和类似功能的AI,尽管在这些领域AI正在做出重大贡献。

 

 

由神经网络产生的决策必须是可以理解的。如果不这样,就很难理解它们是如何工作的,也很难去纠正错误或偏见。

 

神经网络的决策也必须是稳定的。也就是说,尽管视觉数据有微小的差异,但仍然要保持稳定。这对AV来说尤其重要。例如,停车牌上贴上黑白胶带就能让基于AI的视觉系统失效。这是一个无法接受的例子。

 

AV应用需要更好的技术来理解边缘案例或以前的App行驶训练没有经历过的新的案例。这仍然是大量部署AV系统的一个关键制约因素。

 

目前AI的用例

语音识别和用户界面一直是汽车领域###成功的基于AI的应用。这些应用利用智能手机和消费类电子产品中的AI技术,部署在信息娱乐和HMI中。Alexa、CarPlay、Android Auto和类似产品已经被使用在大多数新车型中。

 

远程诊断是一个领先的远程信息技术应用。例如,AI技术的加入可以帮助预测未来的设备故障。

 

基于AI的视觉系统被用于配备ADAS汽车的DMS。随着AI技术的进步,DMS将出现快速增长。

 

许多ADAS功能也使用AI技术,包括ACC到各种类型的自动泊车功能。L1和L2的汽车将在新车型中使用越来越多的AI技术。

 

新兴的AI用例

多家车厂正在搭载有限的驾驶巡航功能。它们通常被称为L2+,但目前的标准中不包括这个术语。称它们为“Autopilot”是错误的,因为它让消费者混淆概念,错认为比现有的能力更强。而且它们已经造成了许多事故。

 

L3车辆发布已经有几年了,但由于监管限制,部署也受到了限制。允许L3的法规正在出现,L3车辆使用了很多AI技术。

 

OTAApp和网络安全功能都在通过嵌入式App客户端以及基于云的服务和分析App增加AI技术的使用。

 

一个新兴的AI应用是AV的开发和测试。大约有5000辆AV处于测试和验证阶段,主要是在中国和美国,其中包括自动驾驶运货车、自动驾驶卡车、Robotaxi和固定路线的AV。

 

未来的AI用例

AV领域是AI技术###有价值和###难的应用。行业目标是实现一个比###好的人类司机更好的App驾驶程序,同时又没有人类行为的那些缺点。

 

基于AI技术的App开发已经成熟。识别和修复App错误有可能在未来十年通过创新的AI技术产生。

 

AI技术带来的网络安全进步也许是汽车和其他行业###迫切的需求。这些领域正吸引着大量、持续的投资。

 

底线

AI技术已经成为汽车行业的主要驱动力。到目前为止,有两家企业在AI技术方面处于领先地位,Nvidia和Tesla。在为创建和使用AI模型提供芯片和App标准方面,显然Nvidia是###。Tesla正在稳步在其Autopilot中部署AI。

 

与此同时,还有许多企业专注于汽车AI:Mobileye是ADAS领域的###,也正在野心勃勃地布局AV,Waymo当然也在其中。

 

随着人们对安全隐患担忧的增加,AI###必须注意这些变化的迹象,以免意外事故扼杀技术创新。排名首位的是解开AI的黑箱,因为这限制了信任系统的部署。在其他方面,训练数据的偏见问题是一个日益严重的问题,难以评估,因此也很难解决。

 

欧盟正在制定AI相关的法规,其他地区也会跟进。

 

在可预见的未来,AI###在建立安全、强大的自动驾驶系统时必须谨慎行事。

 

 

[参考文章]

AI in Automotive: Current and Future Impact — Egil Juliussen