摘要:研究人员已经证明,用于停止或速度限制标志的多色贴纸可能会“混淆”自动驾驶车辆,从而造成不可预测的且可能是危险的操作。...
加利福尼亚大学的研究人员首次证明,在路边停止或速度限制标志的多色贴纸可能会使自动驾驶车辆混淆,从而造成不可预测的且可能是危险的操作。
在圣地亚哥最近网络和分布式系统安全研讨会上的演讲中,加州大学欧文分校的唐纳德·布伦信息与计算机科学学院的研究人员描述了以前仅被理论上的现实世界的影响:这种低成本且高度可部署的恶意攻击可以使其他自动级别的交通符号在其他自动化符号中无法实现,而在某些自动范围内则无法实现。两种类型的攻击都可能导致汽车忽略道路命令,从而触发意外的紧急制动,超速驾驶和其他违规行为。
科学家说,他们的研究涉及三种最具代表性的AI攻击设计,是对最畅销的消费车品牌中交通标志识别系统的首次大规模评估。
UC Irvine Irvine Chen Chen说:“ Waymo每周提供超过15万个自动驾驶,并且有数百万个配备自动驾驶仪的特斯拉汽车在路上,这表明自动驾驶汽车技术正在成为美国和世界各地日常生活中不可或缺的一部分。” “这一事实聚焦了安全的重要性,因为这些系统中的脆弱性一旦被剥削,就会导致安全危害成为生死攸关的问题。”
该研究的主要作者Ningfei Wang是Meta的研究科学家Ningfei Wang,他作为博士学位。加州大学欧文分校的计算机科学专业学生说,他的团队的首选攻击媒介是贴有旋转的,彩色设计的贴纸,这些设计使AI算法用于无人驾驶汽车中的交通标志识别。
王说:“这些贴纸可以由任何使用开源编程语言(例如Python和Image Processing库)廉价而轻松地生产。” “这些工具与带有图形卡和颜色打印机的计算机结合在一起,都是某人需要用自动驾驶汽车挫败TSR系统的所有工具。”
他补充说,该项目期间做出的一个有趣的发现与当今许多商业TSR系统共有的空间记忆设计有关。王说,虽然此功能使攻击消失(似乎从车辆的视野中删除了一个标志),但它更加困难,但它使欺骗一个假停车标志“比我们预期的要容易得多”。
Chen指出,这项研究是在现实世界中使用市售车辆的现实情况下这种安全威胁的第一个类型。
他说:“学者多年来一直在研究无人驾驶汽车安全性,并在最新的自动驾驶技术中发现了各种实际安全漏洞。” “但是这些研究主要限于学术设置,使我们对商业自动驾驶汽车系统中这种脆弱性的理解极为有限。我们的研究填补了这一关键空白。”
陈说,通过关注该领域的一小部分现有研究,他的小组能够揭示各种破裂的假设,不准确和虚假的主张。例如,先前的学术研究没有意识到商业TSR系统中空间记忆设计的共同存在。当陈的团队成员在先前设计的学术研究设置中建立了这种设计时,他们发现了直接挑战最先进的研究社区中早期观察和主张的结果。
Chen说:“我们认为这项工作应该只是开始,我们希望它能激发更多的学术界和行业研究人员,以系统地重新审视这种对现实世界自动驾驶汽车的安全威胁的实际影响和意义。” “这将是我们真正知道在社会一级是否需要采取行动以确保在街道和高速公路上安全的第一步。”
前UC Irvine研究生Takami Sato和Yunpeng Luo加入Chen和Wang。现任UC Irvine研究生Shaoyuan Xie; Drexel大学计算机科学助理教授Kaidi Xu。这项工作得到了国家科学基金会和美国运输部的卡门+大输中心的支持,该中心是UC Irvine的成员。