1050

Как обмануть беспилотные автомобили (и не только их)

Сейчас активно обсуждают беспилотные автомобили — насколько они лучше или хуже обычных, как они изменят будущее и, конечно, насколько они безопасны. Некоторые подходят к этому со стороны проблемы вагонетки: мол, кто знает, как поведёт себя машина в критической ситуации, когда жертв не избежать? Но есть ещё один интересный аспект, который касается безопасности беспилотников: что, если машину можно сознательно обмануть? Чем это будет грозить на дороге? Сейчас объясню подробнее.


Сообщество автомобильных инженеров (SAE) выделяет 6 уровней автоматизации автомобилей:

0-й уровень: отсутствие автоматизации

1-й уровень: необходимо участие водителя

2-й уровень: частичная автоматизация вождения

3-уровень: автомобиль справляется с задачей самостоятельно, но может запросить участия водителя

4-уровень: высокая степень автоматизации

5 уровень: полная автоматизация


Таким образом, сказанное дальше будет касаться не всех беспилотных автомобилей, а только тех, что попадают в пятую категорию. Так вот, полностью автономные машины ориентируются в пространстве за счёт камер и нейронных сетей. Если объяснять на профанном уровне, выглядит это примерно так: камера снимает картинки, а сети их классифицируют: это вот дорожный знак, это — грузовик, это — внезапно! — олень и так далее. Четыре года назад спецы из Гугла, Фейсбука и Нью-Йоркского университета показали, что нейросети можно намеренно обмануть. Можно таким образом обработать картинки, что мы не заметим никаких перемен, а ИИ будет неверно их классифицировать. Такие изображения-обманки называются "adversarial examples" (это можно перевести как «состязательные примеры», но устоявшегося русского термина, вероятно, нет). Лучше всего объяснить на примере:

Нам кажется, что здесь и слева, и справа изображена панда, но сеть GoogLeNet принимает правую картинку за гиббона и совершенно в этом уверена.


Adversarial examples оказались весьма неприятной проблемой. Во-первых, выяснилось, что они не теряют своих обманных свойств и в физическом мире. Если такую картинку распечатать на обычном принтере, потом сфотографировать смартфоном и скормить нейронной сети, она по-прежнему будет работать. Это на практике продемонстрировали ребята из Google Brain и OpenAI — они заставляли ИИ принимать библиотеку за тюрьму, а стиральную машинку за половик. Вот видео для наглядности:

Другой интересный эксперимент провели учёные из Университета Карнеги — Меллон. Они аналогичным образом обманули систему распознавания лиц и выдали себя за известных людей. Для этого исследователи придумали цветовые паттерны, которые заставили бы нейронные сети принять их за конкретных знаменитостей, напечатали эти паттерны на глянцевой бумаге и наклеили на обычные очки. В двух случаях из трёх их ждал 100-процентный успех. Таким образом они показали, что обмануть нейросети можно 1. в реальном мире 2. не вызывая особых подозрений — ведь люди часто носят очки и цветные экземпляры среди них — не редкость. Вот видео с конференции, где исследователи сами рассказывают о своей работе — оно понятнее, чем научная работа на ту же тему.

Во-вторых, для того, чтобы создать хитрые картинки, не обязательно точно знать, как устроена сеть или иметь доступ к набору изображений, на котором её обучают. В марте этого года товарищи из OpenAI рассказали, что провели атаку методом «чёрного ящика». Единственное, что им нужно было знать — как целевая нейросеть классифицирует некоторые объекты.


В-третьих, можно создать adversarial examples, которые смогут одурачить не одну, а сразу несколько сетей, даже если те устроены по-разному. То есть такие «оптические иллюзии» до некоторой степени универсальны, хотя обмануть чем-то одним все сети на свете нельзя (или мы пока об этом не знаем). В общем, страшная вещь — можно дурить в реальном мире сразу несколько алгоритмов, и при этом необязательно всё-всё про них знать.


При чём здесь автономные автомобили? Ну, как видим, это работает не только с ними, но и их тоже касается. Как говорит специалист по технологиям машинного обучения Григорий Сапунов вот в этой статье: «Тема с автомобилями представляет особый интерес в силу того, что автомобиль — это объект повышенной опасности и если в нём появится чёрный ящик, который можно таким образом обмануть, то это риски. И риски намеренного обмана злоумышленником, и риски того, что автомобиль сам по себе может неправильно среагировать на какую-то ситуацию, и мы заранее не знаем какую (и к тому же мы до конца не понимаем, на что именно он вообще реагирует). То есть потенциально под угрозой человеческие жизни и здоровье, это нехорошо. Получается, что производитель не может дать никаких гарантий».

Специалисты пока не пришли к единому мнению о том, насколько adversarial examples опасны для беспилотных машин. Например, учёные из Иллинойсского университета в Урбане-Шампейне считают, что бояться нечего, потому что камеры движущегося автомобиля видят предметы с разных углов и в разных масштабах. Они провели такой эксперимент: сделали картинки-обманки, внешне похожие на обычные сигналы «стоп», наклеили их на дорожные знаки и несколько раз проехали мимо на автомобиле. Тачка была не простая, а с видеокамерой — изображение сразу поступало нейронным сетям. В большинстве случаев сети верно опознавали знак, ошиблись они всего-то в паре кадров. Учёные объяснили это тем, что машина большую часть времени находилась слишком далеко от дорожного знака, и камера попросту не могла разглядеть изменения картинки, которые обманули бы компьютер. Они пришли к выводу, что в реальном мире, где предмет можно разглядеть с разных углов и на разных дистанциях, о хитрых картинках можно вообще не беспокоиться.


Но с ними согласны не все. Например, ребята из уже упоминавшейся OpenAI (кстати, один из основателей компании — Илон Маск) привели контраргументы всего через 5 дней после публикации того исследования. Они не стали заморачиваться и писать научную работу, а просто опубликовали пост в блоге. Суть такова: спецы OpenAI создали изображение, которое нейронные сети классифицируют неправильно, с какого бы угла они на них не смотрели. Это распечатанная на принтере фотка милого котёнка среди зелени — как её не увеличивай, как не поворачивай, а ИИ всё равно принимает её за настольный компьютер или монитор. Таким образом, получается, что смена ракурса не защищает машины от обмана и опасность остаётся. Этот пост опубликовали совсем недавно, 17 июля, так что нам только предстоит узнать, что на это ответят другие специалисты.

Видео команды OpenAI, где они демонстрируют картинку-обманку с разных ракурсов

В заключение, пожалуй, стоит ещё раз напомнить о том, что проблема касается не только беспилотных автомобилей. Как говорит Григорий Сапунов: «Во многих местах, где нейросети используются для анализа изображений (определение товаров, системы безопасности, и т. д.) часто используются какие-то готовые нейросети, возможно дообученные на данных пользователя. Возможно, выяснится, что многие сервисы подвержены одной и той же проблеме и неверно классифицируют одни и те же картинки просто потому, что построены на одной и той же нейросети. Это может оказаться довольно массовой проблемой, где-то критичной, где-то нет».


Поскольку я не настоящий сварщик, а просто начиталась постов и научных работ (там, где они понятны простому смертному), в комментарии приглашаются специалисты по нейронным сетям, если такие здесь есть. Возможно, я что-то передаю не точно, и они могли бы меня поправить.


P.S. Баянометр ругался на картинку, но она хорошо иллюстрирует тему поста.

Наука | Научпоп

9.4K постов82.8K подписчиков

Правила сообщества

Основные условия публикации

- Посты должны иметь отношение к науке, актуальным открытиям или жизни научного сообщества и содержать ссылки на авторитетный источник.

- Посты должны по возможности избегать кликбейта и броских фраз, вводящих в заблуждение.

- Научные статьи должны сопровождаться описанием исследования, доступным на популярном уровне. Слишком профессиональный материал может быть отклонён.

- Видеоматериалы должны иметь описание.

- Названия должны отражать суть исследования.

- Если пост содержит материал, оригинал которого написан или снят на иностранном языке, русская версия должна содержать все основные положения.


- Посты-ответы также должны самостоятельно (без привязки к оригинальному посту) удовлетворять всем вышеперечисленным условиям.

Не принимаются к публикации

- Точные или урезанные копии журнальных и газетных статей. Посты о последних достижениях науки должны содержать ваш разъясняющий комментарий или представлять обзоры нескольких статей.

- Юмористические посты, представляющие также точные и урезанные копии из популярных источников, цитаты сборников. Научный юмор приветствуется, но должен публиковаться большими порциями, а не набивать рейтинг единичными цитатами огромного сборника.

- Посты с вопросами околонаучного, но базового уровня, просьбы о помощи в решении задач и проведении исследований отправляются в общую ленту. По возможности модерация сообщества даст свой ответ.


Наказывается баном

- Оскорбления, выраженные лично пользователю или категории пользователей.

- Попытки использовать сообщество для рекламы.

- Фальсификация фактов.

- Многократные попытки публикации материалов, не удовлетворяющих правилам.

- Троллинг, флейм.

- Нарушение правил сайта в целом.


Окончательное решение по соответствию поста или комментария правилам принимается модерацией сообщества. Просьбы о разбане и жалобы на модерацию принимает администратор сообщества. Жалобы на администратора принимает @SupportComunity и общество Пикабу.

99
Автор поста оценил этот комментарий
"В двух случаях из трёх их ждал 100-процентный успех."

Понятно.
раскрыть ветку (1)
45
Автор поста оценил этот комментарий

Было три экспериментатора, каждый из которых пытался выдать себя за какую-то знаменитость. Изображения двух из них нейронные сети принимали за изображения знаменитостей в 100% случаев. Возможно, я не совсем точно выразилась (не хотелось приводить подробное описание эксперимента в обзорном посте), но мне казалось, что это компенсируется записью с рассказом самого учёного.

показать ответы
6
Автор поста оценил этот комментарий

Нейтронная сеть, что то новое)

раскрыть ветку (1)
6
Автор поста оценил этот комментарий
Автозамена — бессердечная сука! =)
показать ответы
Автор поста оценил этот комментарий

Простите, а что, бывают пилотные автомобили?

раскрыть ветку (1)
3
Автор поста оценил этот комментарий

Строго говоря, правильнее было бы назвать их «автономными» (а вот дроны — беспилотными), но Википедия приводит определение «беспилотные», и поиск гуглом показал, что именно это словосочетание наиболее распространено. Я руководствовалась этим предположением, а так же тем, что большинству читателей слышать «беспилотный автомобиль» привычнее.

показать ответы
6
Автор поста оценил этот комментарий

Неудобно ехать с дельфином на крыше.

раскрыть ветку (1)
0
Автор поста оценил этот комментарий
А на на водительском сиденье — так вообще...
6
Автор поста оценил этот комментарий

Эмм. Пример с котом вообще странный. Понятно почему его опубликовали в блоге.

Что следует из того, что эту картинку человек примет за кота, а нейросеть за компьютер? Я например совершенно не уверен в том, что это именно кот, а не корпус ПК, стилизованный под него. Без каких либо проблем можно создать изображение, которые разные люди будут распозновать по разному. Очевидно, что это же относится и к нейросетям. Подобное распознование, это угадывание ошибки неизбежны в любом случае, о чем собственно красноречиво говорит 99% уверенность нейросетей.


Кроме того, пост подан совершенно не в том свете.

В данных публикациях речь идет не об опасности управляемого таким образом автомобиля, а об уязвимостях нейросетей. Данная информация полезна и интересна исключительно людям, занимающимся нейросетями. Вы же, как заправский журналист, зачем-то преподносите её практически в сенсационном свете.

раскрыть ветку (1)
0
Автор поста оценил этот комментарий

В сенсационном свете? И мысли не было. Мне это показалось интересным, захотелось поделиться, рассказать, что есть такая интересная штука — adversarial examples — вот и всё. В публикации из Иллинойсского университета действительно говорится об автономных автомобилях и о том, что такие уязвимости могут теоретически (!) представлять опасность: "These experiments raise serious safety and security concerns, especially when these networks are incorporated in safety-critical systems such as autonomous vehicles. For example, adding subtle adversarial perturbations, which humans generally don’t notice, to a stop sign to cause it to be misclassified as a minimum speed limit sign could lead to fatal car accidents". И эксперименты там проводят с участием именно автомобиля. В том же исследовании эти страхи развенчиваются, и у меня об этом написано. Но товарищи из OpenAI опровергают их аргументы — и это тоже правда.

0
Автор поста оценил этот комментарий

Забавно. Особенно в случае технологии распознавания лиц. При высоком уровне автоматизации можно легко обходить камеры выдавая себя за другого человека.

раскрыть ветку (1)
0
Автор поста оценил этот комментарий
Там для чистоты эксперимента учёные предположили, что злоумышленник знает, как устроена нейтронная сеть в системе распознавания лиц. В реальности это едва ли будет так, поэтому должно быть сложнее.
показать ответы
9
Автор поста оценил этот комментарий
С картинкой не совсем корректный пример, она сама по себе плоское изображение и наблюдение ёё с разных углов мало чего даст (что собственно и получилось). Нужно рассматривать реальное объёмное тело, а также чтобы расстояние между камерами соотносилось с расстоянием до объекта для обеспечения максимальных углов обзора, ну или одна камера двигалась соответственно относительно объекта. Насколько я понимаю человеческий мозг также подвержен аналогичным ошибкам, поэтому у нас два глаза (и два уха). Как-то так.
раскрыть ветку (1)
0
Автор поста оценил этот комментарий
Интересно, что мне за время подготовки поста не попадались исследования, где такие изображения пытались бы нарисовать, скажем, на кубе — в общем, на объёмном предмете. Впрочем, надо сказать, за 4 года работ на тему вышло довольно много, я могла и не заметить.

Темы

Политика

Теги

Популярные авторы

Сообщества

18+

Теги

Популярные авторы

Сообщества

Игры

Теги

Популярные авторы

Сообщества

Юмор

Теги

Популярные авторы

Сообщества

Отношения

Теги

Популярные авторы

Сообщества

Здоровье

Теги

Популярные авторы

Сообщества

Путешествия

Теги

Популярные авторы

Сообщества

Спорт

Теги

Популярные авторы

Сообщества

Хобби

Теги

Популярные авторы

Сообщества

Сервис

Теги

Популярные авторы

Сообщества

Природа

Теги

Популярные авторы

Сообщества

Бизнес

Теги

Популярные авторы

Сообщества

Транспорт

Теги

Популярные авторы

Сообщества

Общение

Теги

Популярные авторы

Сообщества

Юриспруденция

Теги

Популярные авторы

Сообщества

Наука

Теги

Популярные авторы

Сообщества

IT

Теги

Популярные авторы

Сообщества

Животные

Теги

Популярные авторы

Сообщества

Кино и сериалы

Теги

Популярные авторы

Сообщества

Экономика

Теги

Популярные авторы

Сообщества

Кулинария

Теги

Популярные авторы

Сообщества

История

Теги

Популярные авторы

Сообщества