Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги Информационная безопасность, Машинное обучение, Искусственный интеллект, Длиннопост, Deepfake, Habr

C момента своего появления в декабре 2017-го дипфейки, видео с почти идеальной заменой лица, созданные нейросетью, наводили на экспертов панику. Многие, например, тогда боялись, что теперь еще проще станет «порно-месть», когда бывший бойфренд с достаточно мощным ПК может смастерить любое грязное порно с подругой. А Натали Портман и Скарлетт Йоханссон, о которых порно с deepfake снимали особенно много, публично прокляли интернет.


Чтобы бороться с подступающей угрозой, Facebook и Microsoft недавно собрали коалицию для борьбы с дипфейками, объявив призовой фонд $10 млн тем разработчикам, которые придумают лучшие алгоритмы для их обнаружения. Это помимо DARPA, управления исследованиями Министерства обороны США, выделившего на эту цель $68 млн за последние два года.


Ну так вот, уже поздно. Первое deepfake-преступление уже состоялось.

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги Информационная безопасность, Машинное обучение, Искусственный интеллект, Длиннопост, Deepfake, Habr

По данным Wall Street Journal, в марте этого года управляющий директор британской энергетической компании был ограблен на €220 000 (около $240 000). Он отправил эти деньги фирме-поставщику из Венгрии, потому что его босс, глава материнской фирмы в Германии, несколько раз подтвердил ему такую инструкцию. Но на самом деле какой-то хитрый злоумышленник просто использовал софт с AI-технологиями, чтобы в режиме реального времени заменять голос руководителя, и требовать, чтобы тот заплатил ему в течение часа.


Программа, которую использовал вор, смогла полностью имитировать голос человека: тон, пунктуацию, даже немецкий акцент. Сообщение исходило с адреса босса в Германии, в подтверждение британскому директору был направлен e-mail с контактами. Предположить, что что-то идёт не так, можно было разве что по требованию босса провести всю сделку как можно быстрее, но это далеко не первый аврал, который случался в их бизнесе.


В итоге – все деньги пропали. Из венгерского аккаунта их перевели в Мексику, а потом рассеяли по всему миру. Но воры на этом не остановились. Они попросили второй срочный перевод, чтобы «поставки из Венгрии» «пошли еще быстрее». Тут уж британский директор почуял неладное, и позвонил своему настоящему боссу. Получился какой-то сюр: он по очереди принимал звонки то от фейкового, то от настоящего руководителя, говорящих одинаковыми голосами. Название компании и её сотрудников не разглашаются, поскольку по этому делу ведется расследование, и воры еще не найдены.

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги Информационная безопасность, Машинное обучение, Искусственный интеллект, Длиннопост, Deepfake, Habr

Возможно, это даже не первая кража с использованием Deepfake AI (или его продвинутых последователей). Symantec сообщает, что она засекла как минимум три случая, в которых замена голоса помогла ворам обхитрить компании и заставить их послать им деньги. В одном из этих случаев ущерб составил миллионы долларов. Причем, судя по косвенным признакам, этот трюк был проделан другими злоумышленниками – не теми, которые обокрали британского СЕО. То есть, deepfake-преступления постепенно становятся общим достоянием, это не придумка какого-то одного гениального хакера.


На самом деле, скоро такую процедуру сможет проделать любой школьник. Главное – найти достаточно доверчивую жертву, и собрать нужное количество сэмплов видео/аудио, чтобы имперсонировать, кого потребуется. Google Duplex уже успешно мимикрирует под голос реального человека, чтобы делать звонки от его имени. Многие небольшие стартапы, в основном из Китая, работают над тем, чтобы предлагать похожие на deepfake сервисы бесплатно. Разные программы-дипфейки даже соревнуются друг с другом, кто сможет сгенерировать достаточно убедительное видео с человеком, используя минимальный объем данных. Некоторые заявляют, что скоро им будет достаточно одного вашего фото.


В июле Израильское национальное управление защиты от киберугроз выпустило предупреждение о принципиально новом виде кибератак, которые могут быть направлены на руководство компаний, ответственных сотрудников и даже высокопоставленных чиновников. Это первая и на данный момент самая реальная AI-угроза. Они говорят, уже сейчас есть программы, способные идеально передать ваш голос и акцент, прослушав вас 20 минут. Если где-то в сети есть запись с вашей речью в течение получаса, или если кто-то немного посидел рядом с вами в кафе с диктофоном, ваш голос теперь может быть использован, чтобы сказать кому угодно что угодно.


Пока что инструментов для борьбы с этим нет. Вариант защититься только один. Если вам кто-то звонит и просит перевести существенную сумму денег, – не будет лишним подтвердить, что это тот самый человек, по другому каналу. Через мессенджеры, Скайп, e-mail, корпоративные каналы или соцсети. А в идеале, конечно же, – лицом к лицу.


Ну а если у вас есть глубокие познания в машинном обучении и вы не прочь получить кусок от пирога в $10 млн – можно попробовать себя в конкурсе Microsoft и Facebook. Или основать свой стартап, предлагающий государству и солидным компаниям бизнес-решение для определения дипфейков по картинке или по голосу. Без этого нам скоро будет не обойтись.

Источник: Хабр

Информационная безопасность IT

1.4K постов25.5K подписчиков

Добавить пост

Правила сообщества

Обязательно к прочтению для авторов:

1. Если вы добавляете пост, утверждающий об утечке данных или наличии дыр в системе, предоставьте ссылку на источники или технически подкованное расследование. Посты из разряда "Какой-то банк слил данные, потому что мне звонили мошенники" будут выноситься в общую ленту.
2. Все вопросы "Как обезопасить сервер\приложение\устройство" - в лигу "Компьютер это просто".

Обязательно к прочтению для всех:

Добавление ссылки разрешено если она не содержит описание коммерческих (платных) продуктов и/или идентификаторов для отслеживания перехода и для доступа не нужен пароль или оплата в т.ч. интернет-ресурсы, каналы (от 3-х тематических видео), блоги, группы, сообщества, СМИ и т.д.


Запрещены политические holy wars.

По решению модератора или администратора сообщества пользователь будет забанен за:

1. Флуд и оскорбление пользователя, в т.ч. провокация спора, флуда, холивара (высказывание без аргументации о конкретной применимости конкретного решения в конкретной ситуации), требование уже данного ответа, распространение сведений порочащих честь и репутацию, принижающих квалификацию оппонента, переходы на личности.

2. Публикацию поста/комментария не соответствующего тематике сообщества, в том числе обсуждение администраторов и модераторов сообщества, для этого есть специальное сообщество.

3. За обвинение в киберпреступной деятельности.

4. За нарушение прочих Правил Пикабу.

Вы смотрите срез комментариев. Показать все
69
Автор поста оценил этот комментарий

Выход не в поиске алгоритмов обхода. А в общественной утрате доверия видео и аудио. Раньше это тоже было уязвимым местом, но сейчас технологически фейки значительно приблизились к совершенству и могут быть поставлены на поток.

Как детей учат не доверять чужим голосам, пытающимся прикинуться мамой и папой, так и обществу нужно научиться перестать доверять видео и аудио. Плюс перейти на идентификацию по другим вещам: пароли, ключи, неподделываемые варианты цифровой подписи. А технологически перегнать злоумышленников было бы слишком дорого и неоправданно.

раскрыть ветку (28)
47
Автор поста оценил этот комментарий
Зато теперь даже если найдут на кого то компромат с порно,всегда можно сказать,что это подделка
раскрыть ветку (6)
3
Автор поста оценил этот комментарий

Одни плюсы:)

раскрыть ветку (5)
1
Автор поста оценил этот комментарий

Зато теперь будут сниматься до глубокой пенсии. И приклеивать лица и сиськи по требованию, или даже на лету.

раскрыть ветку (4)
Автор поста оценил этот комментарий

так сниматься-то при этом зачем?

раскрыть ветку (2)
Автор поста оценил этот комментарий

Разве что по прихоти режиссёра и сценариста. Лысый разве не автор сценариев?

Автор поста оценил этот комментарий

чтобы было что заменять. Так как и для фотошопа сначала надо сфоткаться

Автор поста оценил этот комментарий

На мой взгляд будущее за порносимуляторами, когда можешь выбрать любую актриссу/позу/окружение и тд. С постоянно растущим графонием некоторые рендеры уже от реальной жизни не отличить.

6
DELETED
Автор поста оценил этот комментарий
есть преступление, есть видео с камеры наблюдения с чуваком, который его совершил. по какому паролю ты собираешься в таком случае идентифицировать, реально ли это он на видео или это фейк?
раскрыть ветку (8)
21
Автор поста оценил этот комментарий

по какому паролю ты собираешься в таком случае идентифицировать
Специально сертифицированные устройства видеозаписи, опломбированные на факт вскрытия, с собственными механизмами кодирования/электронной подписи, напрямую заливающиеся на доверенный сервер.

Я практически уверен что что-то подобное уже есть, причем намного более замороченное.

раскрыть ветку (6)
DELETED
Автор поста оценил этот комментарий
тогда это должна быть полностью государтсвенная сеть камер по вскй стране, я так и вижу, как все магазины и офисы закупают суперсложные девайсы за хз сколько денег, ага
раскрыть ветку (5)
3
Автор поста оценил этот комментарий

Окститесь. Уже в копеечных видеорегистраторах встроена цифровая подпись.

раскрыть ветку (4)
DELETED
Автор поста оценил этот комментарий
и куда льет видео этот регик?
раскрыть ветку (3)
2
Автор поста оценил этот комментарий

В облако.

раскрыть ветку (2)
2
Автор поста оценил этот комментарий

шах и мат, атеисты

раскрыть ветку (1)
Автор поста оценил этот комментарий

шах и мат, аметисты!

Автор поста оценил этот комментарий
А это пусть чувак паролями подтверждает свое видеоалиби
3
Автор поста оценил этот комментарий
И нереально, всегда будут в отстающих. С Вами согласен.
Автор поста оценил этот комментарий

А проверка источников стала необходимостью только после появления дипфейков?

раскрыть ветку (3)
5
DELETED
Автор поста оценил этот комментарий

Проверка видео в прямом эфире - да. Раньше возможности подделать его не было.

раскрыть ветку (2)
Автор поста оценил этот комментарий

Операторские приемы тоже могут вводить в заблуждение, корреспондент может сам себе устроить нужную ситуацию, а интервьюер вопросами навести на нужные слова.

раскрыть ветку (1)
6
DELETED
Автор поста оценил этот комментарий

Это понятно, но видеозвонок ещё несколько лет назад подделать было невозможно - не было технологий, чтобы в прямом эфире рисовать лицо и править голос.

1
Автор поста оценил этот комментарий

А вот представьте, что когда нибудь не будет никакой защиты. Как тогда мы здорово заживем. Не сразу правда, сначала будет помойка, но со временем.

раскрыть ветку (2)
3
Автор поста оценил этот комментарий

Правда, не только лишь все. Мало, кто сможет это сделать.

4
Автор поста оценил этот комментарий

Тогда придется все человечество принудительно перевоспитывать. Потому что без защиты в мире не проживешь, будь то физическая защита в виде стен и органов правопорядка или защита виртуальная в виде наказания за подделку документов.

Если вдруг защита пропадет, общество все равно пойдет по пути ее выстраивания.

Автор поста оценил этот комментарий
Неподделываемых вариантов цифровой подписи нет. Просто алгоритмы таковы, что на взлом требуется очень много времени. Миллионы лет. Но кубитовые компьютеры обходят эту проблему за доли секунд.
раскрыть ветку (3)
1
Автор поста оценил этот комментарий

Ты сейчас про какой метод взлома? Если про брутфорс, то на принимающей стороне должна быть соответствующая защита.

1
Автор поста оценил этот комментарий

Уже обходят?

раскрыть ветку (1)
Автор поста оценил этот комментарий
Почитайте про квантовые компьютеры. Обходят. Но уже есть алгоритмы шифрования, рассчитанные на стойкость к взлому квантовых компьютеров)
Вы смотрите срез комментариев. Чтобы написать комментарий, перейдите к общему списку