安全研究人员已经展示了如何使用被盗用的/伪造的车牌来混淆自动驾驶汽车,从而迫使他们急剧撞车或刹车。
近年来,自动驾驶系统有所增加,但并非没有错误,混乱和 事故.

车辆智能还需要很长的路要走,才能被认为是完全自动化和安全的。 使用 在没有驾驶员的监督下和作为公司 技术 持续改善 平台 他们的重点往往放在天气,制图以及如何 汽车 必须对危险物体做出反应-例如路上的人或其他汽车。
但是,据《连线》杂志报道,可能还有其他肉眼无法察觉的,看不见的危险。
以色列本古里安大学的学者进行的一项新研究表明,所谓的“鬼影”(例如可能出现在在线广告牌上的停靠点)可能会使系统混乱 AI 并根据具体原因 行动 或动作。
这不仅可能导致交通堵塞,还可能导致更严重的交通事故 事故,和他们一起 黑客 留下一些有关的信息 业务 -让驾驶员想知道为什么他们的智能汽车突然改变了行为。
安全研究人员伊斯罗尔·米尔斯基(Yisroel Mirsky)表示,在线广告牌上出现的假招牌可能导致汽车“刹车或坠毁”。
使用最新版本的Tesla Autopilot和MobileEye在车辆上进行了测试。 根据《连线》杂志的报道,一个愚蠢的停止信号持续了0,42秒 特斯拉,而只有1/8秒足以欺骗MobileEye。