Группа ученых разработала атаку, которая способна помешать работе автомобилей с автопилотом, эксплуатируя их компьютерное зрение, опирающееся на камеры. В итоге авто перестают корректно распознавать дорожные знаки.
Атака получила название GhostStripe и будет детально представлена на Международной конференции ACM по мобильным системам (ACM International Conference on Mobile Systems) в следующем месяце. Пока же исследователи опубликовали доклад, согласно которому GhostStripe незаметна для человеческого глаза, но может быть крайне опасна, например, для водителей Tesla и Baidu Apollo, поскольку вмешивается в работу сенсоров, используемых в автомобилях этих марок (в частности, CMOS-сенсоров камер).
Суть атаки заключается в использовании светодиодов для освещения дорожных знаков различными световыми паттернами, чтобы ПО автомобилей не могло их распознать. Так, происходит атака на скользящий электронный затвор CMOS-сенсоров камер. Светодиоды быстро вспыхивают разными цветами на знаке. Из-за этого, например, оттенок красного на знаке «Стоп» может выглядеть по-разному для каждой линии сканирования.
В результате камера фиксирует изображение с линиями, которые вообще не соответствуют друг другу. Затем изображение обрезается и отправляется на интерпретацию классификатору в ПО автомобиля, работа которого обычно основана на нейросети. Поскольку на изображении будет множество совершенно разных линий, классификатор не распознает изображение как дорожный знак, а значит, автомобиль не станет на него реагировать.
Мы в VK: https://vk.com/darkwebex
