Как работает автопилот
Руководитель подразделения искусственного интеллекта в Tesla - Андрей Карпатый - рассказал о работе своей команды. Кратко о том, как Tesla обучает нейросети для Автопилота и внедряет функции.
Руководитель подразделения искусственного интеллекта в Tesla - Андрей Карпатый - рассказал о работе своей команды. Кратко о том, как Tesla обучает нейросети для Автопилота и внедряет функции.
С 32 сек.
Генеральный директор Tesla Илон Маск сообщил в Твиттере, что их автомобильный парк совершил более полумиллиона «умных вызовов» всего за несколько дней после запуска функции «Smart Summon», но некоторые из них закончились авариями и событиями, близкими к аварийным ситуациям. Все потому, что многие вовлеченные владельцы намеренно используют эту функцию до «предела», например на людных парковках или на пересечении проезжей части.
«Smart Summon» основывается на предыдущей функции «Summon», которую владельцы использовали для самостоятельного перемещения своих автомобилей на несколько метров по подъездной дорожке или в условиях ограниченной парковки.
С новой версией владельцы могут вызывать свои автомобили Tesla издалека, и автомобили будут ориентироваться в более сложных условиях.
С выпуском ПО Tesla V10 на прошлой неделе, автопроизводитель начал распространять эту функцию на свой более широкий парк, и генеральный директор Илон Маск говорит, что она уже использовалась более 550 000 раз:
В примечаниях к выпуску обновления V10 Tesla ясно дает понять, что функция все еще находится в «бета-версии» и как и автопилот, водители по-прежнему несут ответственность за автомобиль:
Smart Summon разработан для того, чтобы позволить вашему автомобилю подъехать к вам (используя GPS вашего телефона в качестве конечного пункта назначения) или выбранное вами место, маневрировать вокруг объектов по мере необходимости. Как и Summon, Smart Summon предназначен только для использования на частных парковках и подъездных путях. Вы по-прежнему несете ответственность за свой автомобиль и должны постоянно следить за ним и его окружением в пределах вашей прямой видимости, поскольку он не может обнаружить все препятствия. Будьте особенно осторожны с быстро движущимися людьми, велосипедами и автомобилями.
Национальная администрация безопасности дорожного движения (NHTSA) уже заинтересовалась использованием данной функции и начала пристально изучать ситуацию с Tesla.
Водитель сможет передать контроль электронике, когда автомобиль окажется на трассе.
Комплекс ProPILOT впервые сможет вести автомобиль самостоятельно, не требуя контроля со стороны водителя, сообщает Nissan. Правда, с единственной оговоркой — эта функция будет работать только во время поездки по магистрали. Использовать автопилот нового поколения (им оснастят модель Skyline для внутреннего рынка Японии) нельзя при двустороннем движении, на извилистых дорогах и в момент подъезда к пунктам оплаты проезда на платных дорогах.
Чтобы активировать автопилот, предварительно необходимо построить маршрут с помощью штатной системы навигации. Водитель сможет передать контроль электронике, когда автомобиль окажется на трассе. Система способна удерживать машину в полосе, а также совершать обгоны и прочие маневры. Правда, здесь без контроля со стороны человека не обойтись. ProPILOT должен уведомлять водителя световыми и звуковыми сигналами, что ему нужно взяться за руль и включить поворотники — автопилот начнет маневрировать только при этом условии.
За автопилот отвечает сложная система, включающая в себя камеры, сонары, радары, GPS-датчики и 3D-карты высокого разрешения. И несмотря на то, что ProPILOT позволяет снимать на трассе руки с руля, электроника проконтролирует, смотрит ли водитель на дорогу: отвлекаться нельзя!
Система ProPILOT уже используется на ряде моделей Nissan, но подготовленная для Skyline модификация — самая совершенная на сегодняшний день.
Источник
Компания Tesla стремится чтобы ее автомобили были способны ездить по дорогам самостоятельно.Но качество системы автоматического пилотирования на данный момент недостаточно высокое чтоб объезжать ямы.Недавно Илон Маск объявил, что автомобили Tesla все таки смогут самостоятельно объезжать выбоины на дорогах.
Tesla в инструкции предупреждает, что при включении автопилота водитель должен быть всегда готов вернуть управление себе. Как рассказал автор сайта Electrek,Фреда Ламберта, во время последней поездки на расстояние около 300 километров на Tesla, ему пришлось довольно часто брать управление на себя. Дело в том, что камеры и система автопилота Tesla не распознают дорожные ямы и ни как на них не реагируют, поэтому во избежание аварии важно быть всегда начеку.
Журналист написал об этом в своем твиттере, и спустя время увидел ответ от Илона Маска — он уверил, что в будущем обновлении автопилота возможность объезда дорожных ям наконец-то будет внедрена.Случай Ламберта в очередной раз напомнил о несовершенстве системы автопилота и о необходимости его улучшения.
При этом Ламберт поделился, что его маршрут из Монреаля в Шавиниган прошел довольно гладко. Автомобиль учитывал скорость и расстояние ближайших машин и аккуратно подстраивался под движение.
Система адаптивного круиз-контроля Tesla Autopilot может некорректно распознавать точки на асфальте, принимать их за элементы дорожной разметки и сворачивать, чтобы не пересекать несуществующую линию разметки, в том числе выезжая на встречную полосу, выяснили исследователи в области информационной безопасности из китайской компании Tencent. Кроме того, исследователям удалось активировать стеклоочиститель автомобиля, показав его камере специальные изображения, а также получить удаленный доступ к бортовому компьютеру и управлять поворотом с помощью игрового геймпада, рассказывают исследователи в блоге Tencent Keen Security Lab. Кроме того, авторы опубликовали статью с подробным описанием экспериментов.
На сегодняшний день во многих системах компьютерного зрения применяются нейросетевые алгоритмы, показывающие высокую точность распознавания объектов разных классов. Однако у применения нейросетей для работы с изображениями есть и недостатки, в частности, многие исследователи из этой области обращают внимание на уязвимость нейросетей к состязательным примерам (adversarial examples). Эти примеры представляют собой входные данные, которые специально модифицированы таким образом, чтобы заставить нейросеть некорректно распознать объект на них. Особенность этих данных также заключается в том, что, как правило, для человека они либо практически неотличимы от нормальных данных, либо наоборот — представляют собой хаотичный набор пикселей, в котором человек не распознал бы конкретный образ.
Наглядный пример атаки с использованием состязательного примера
Угроза состязательных примеров может казаться достаточно малой, тем более, если учитывать, что обычно они работают в ограниченном диапазоне условий. Тем не менее, многие исследователи считают эту угрозу реальной и серьезной, потому что алгоритмы компьютерного зрения применяются во многих сферах, в том числе и ответственных, таких как беспилотный транспорт для перевозки людей. Исследователи из китайской компании Tencent проверили систему автоматизированного вождения Tesla Autopilot на ее уязвимость к состязательным примерам, и обнаружили ее некорректное поведение в некоторых условиях.
В своем исследовании специалисты выбрали не стандартный подход, при котором алгоритм получает модифицированные данные в цифровом виде, а решили приблизить ситуацию к реальности и создавали состязательные примеры в реальном мире, которые затем автомобиль воспринимал через камеры. Исследователи использовали автомобиль Tesla Model S 75 с аппаратным обеспечением версии Autopilot 2.5 и программным обеспечением версии 2018.6.1. Стоит отметить, что система Autopilot в автомобилях Tesla не является полностью автономной и требует от водителя держать руки на руле и перехватывать управление в сложных ситуациях, поэтому ее принято классифицировать как систему автономного вождения второго уровня автономности по классификации SAE.
Авторы добились трех основных результатов в своей работе. Главный из них — это обман системы распознавания разметки. Исследователи провели два типа экспериментов и смогли как заставить алгоритмы не распознавать существующую линию разметки, так и обнаруживать несуществующую. В первом случае авторы добавляли к настоящей сплошной линии разметки белые пластыри, которые располагались неравномерно. В таком случае, в зависимости от расположения наклеек, автомобиль мог видеть часть полосы или не видеть ее вовсе. При этом исследователи отмечают, что в реальной жизни водитель вряд ли бы не заметил такую необычную разметку.
Пример обнаружения несуществующей линии разметки
Второй эксперимент показал более опасную уязвимость. В нем исследователи нанесли на асфальт три квадратных наклейки, выстроенные в линию таким образом, что эта виртуальная линия проходит диагонально по текущей полосе движения. Во время эксперимента алгоритм распознавания разметки принял эти квадраты за линию и, проигнорировав левую линию разметки, свернул на встречную полосу движения.
Поведение автомобиля при наличии квадратных наклеек на асфальте
Кроме того, авторы показали, что специальные состязательные изображения, показываемые на мониторе перед автомобилем, могут заставить его включать стеклоочиститель. Такой эффект обусловлен тем, что у Tesla Model S есть функция распознавания дождя по изображению с камеры, и состязательные примеры заставляют алгоритм обнаруживать такую погоду на данных с камеры. Этот эксперимент авторы также повторили в цифровом виде, модифицируя входные данные с камеры без применения внешнего монитора. Наконец, в последнем эксперименте авторы показали, как уязвимость в программном обеспечении Tesla позволяет злоумышленникам получить доступ к управлению углом поворота руля и управлять им с помощью игрового контроллера. Стоит отметить, что эта уязвимость уже устранена в актуальной версии программного обеспечения автомобилей Tesla.
Авторы отмечают, что Tesla ответила на выводы их исследования. В случае с включением щеток стеклоочистителя компания заявила, что использование монитора прямо перед автомобилем не является реальным сценарием, который может быть применен на практике. Аналогичным образом специалисты компании ответили на обвинения в некорректном распознавании разметки, ответив, что водитель должен быть всегда готов перехватить управление у системы автопилота, воспользовавшись рулем или педалью тормоза.
Ранее владельцы Tesla уже сталкивались с проблемами распознавания разметки системой Autopilot. К примеру, в прошлом году после смертельной аварии с участием Tesla Model X владельцы других автомобилей Tesla воспроизвели некорректную работу системы Autopilot, о которой говорили родственники погибшего. Их эксперименты показали, что в некоторых случаях система может некорректно интерпретировать частично стертую линию разметки и направить автомобиль в барьерное ограждение.