记录黑客技术中优秀的内容,传播黑客文化,分享黑客技术精华

安全研究人员演示如何通过入侵广告牌来误导特斯拉 Autopilot 发生碰撞

2020-10-16 13:02

随着技术的进步,车载驾驶辅助系统的安全性得到了不断的提升,但其可靠性仍未能让我们感到满意。安全研究人员已经证明,通过被劫持的互联网广告牌,就可诱导特斯拉电动汽车的 Autopilot 等系统采取突然的制动、驻车或转弯等操作。《连线》杂志报道称,位于以色列内盖夫的本·古里安大学的研究人员,一直在对所谓的“鬼影”图像展开试验。 1

资料图(来自:Tesla)

具体说来是,这些图像可能让自动驾驶 / 驾驶辅助系统感到困惑,其中涉及到营造瞬间的光线投射、让系统“看到”不存在的物体(比如停车指示牌)。

这项技术的早期示例,是将路标和人的影像投射到道路上。即便只显示几毫秒的时间,就足以误导高级驾驶辅助系统(ADAS)。

虽然本文介绍的这项新研究基于类似的方法,但演示中并未使用投影的图像,而是利用了联网的数字广告牌。

在侵入某款数字广告板之后,攻击者可注入一些可能导致汽车发生碰撞的内容,但不会留下明显的痕迹(司机只会感到一头雾水)。

据悉,研究人员针对特斯拉 Autopilot 和 MobileEye 630 系统开展过测试,前者会被出现仅 0.42 秒的鬼影图像所欺骗、后者则是 1/8 秒。

有关这项研究的详情,将在今年 11 月的 ACM 计算机和通信安全会议上作介绍。让人担忧的是,这类数字广告牌鬼影攻击可能波及更多车型和导致大范围的误伤。

 

(稿源:cnBeta,封面源自网络。)

 


知识来源: hackernews.cc/archives/32567

阅读:17286 | 评论:0 | 标签:安全快讯 Tesla 网络攻击 入侵 安全

想收藏或者和大家分享这篇好文章→复制链接地址

“安全研究人员演示如何通过入侵广告牌来误导特斯拉 Autopilot 发生碰撞”共有0条留言

发表评论

姓名:

邮箱:

网址:

验证码:

公告

❤人人都能成为掌握黑客技术的英雄⛄️

ADS

标签云

本页关键词