Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги Информационная безопасность, Машинное обучение, Искусственный интеллект, Длиннопост, Deepfake, Habr

C момента своего появления в декабре 2017-го дипфейки, видео с почти идеальной заменой лица, созданные нейросетью, наводили на экспертов панику. Многие, например, тогда боялись, что теперь еще проще станет «порно-месть», когда бывший бойфренд с достаточно мощным ПК может смастерить любое грязное порно с подругой. А Натали Портман и Скарлетт Йоханссон, о которых порно с deepfake снимали особенно много, публично прокляли интернет.


Чтобы бороться с подступающей угрозой, Facebook и Microsoft недавно собрали коалицию для борьбы с дипфейками, объявив призовой фонд $10 млн тем разработчикам, которые придумают лучшие алгоритмы для их обнаружения. Это помимо DARPA, управления исследованиями Министерства обороны США, выделившего на эту цель $68 млн за последние два года.


Ну так вот, уже поздно. Первое deepfake-преступление уже состоялось.

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги Информационная безопасность, Машинное обучение, Искусственный интеллект, Длиннопост, Deepfake, Habr

По данным Wall Street Journal, в марте этого года управляющий директор британской энергетической компании был ограблен на €220 000 (около $240 000). Он отправил эти деньги фирме-поставщику из Венгрии, потому что его босс, глава материнской фирмы в Германии, несколько раз подтвердил ему такую инструкцию. Но на самом деле какой-то хитрый злоумышленник просто использовал софт с AI-технологиями, чтобы в режиме реального времени заменять голос руководителя, и требовать, чтобы тот заплатил ему в течение часа.


Программа, которую использовал вор, смогла полностью имитировать голос человека: тон, пунктуацию, даже немецкий акцент. Сообщение исходило с адреса босса в Германии, в подтверждение британскому директору был направлен e-mail с контактами. Предположить, что что-то идёт не так, можно было разве что по требованию босса провести всю сделку как можно быстрее, но это далеко не первый аврал, который случался в их бизнесе.


В итоге – все деньги пропали. Из венгерского аккаунта их перевели в Мексику, а потом рассеяли по всему миру. Но воры на этом не остановились. Они попросили второй срочный перевод, чтобы «поставки из Венгрии» «пошли еще быстрее». Тут уж британский директор почуял неладное, и позвонил своему настоящему боссу. Получился какой-то сюр: он по очереди принимал звонки то от фейкового, то от настоящего руководителя, говорящих одинаковыми голосами. Название компании и её сотрудников не разглашаются, поскольку по этому делу ведется расследование, и воры еще не найдены.

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги Информационная безопасность, Машинное обучение, Искусственный интеллект, Длиннопост, Deepfake, Habr

Возможно, это даже не первая кража с использованием Deepfake AI (или его продвинутых последователей). Symantec сообщает, что она засекла как минимум три случая, в которых замена голоса помогла ворам обхитрить компании и заставить их послать им деньги. В одном из этих случаев ущерб составил миллионы долларов. Причем, судя по косвенным признакам, этот трюк был проделан другими злоумышленниками – не теми, которые обокрали британского СЕО. То есть, deepfake-преступления постепенно становятся общим достоянием, это не придумка какого-то одного гениального хакера.


На самом деле, скоро такую процедуру сможет проделать любой школьник. Главное – найти достаточно доверчивую жертву, и собрать нужное количество сэмплов видео/аудио, чтобы имперсонировать, кого потребуется. Google Duplex уже успешно мимикрирует под голос реального человека, чтобы делать звонки от его имени. Многие небольшие стартапы, в основном из Китая, работают над тем, чтобы предлагать похожие на deepfake сервисы бесплатно. Разные программы-дипфейки даже соревнуются друг с другом, кто сможет сгенерировать достаточно убедительное видео с человеком, используя минимальный объем данных. Некоторые заявляют, что скоро им будет достаточно одного вашего фото.


В июле Израильское национальное управление защиты от киберугроз выпустило предупреждение о принципиально новом виде кибератак, которые могут быть направлены на руководство компаний, ответственных сотрудников и даже высокопоставленных чиновников. Это первая и на данный момент самая реальная AI-угроза. Они говорят, уже сейчас есть программы, способные идеально передать ваш голос и акцент, прослушав вас 20 минут. Если где-то в сети есть запись с вашей речью в течение получаса, или если кто-то немного посидел рядом с вами в кафе с диктофоном, ваш голос теперь может быть использован, чтобы сказать кому угодно что угодно.


Пока что инструментов для борьбы с этим нет. Вариант защититься только один. Если вам кто-то звонит и просит перевести существенную сумму денег, – не будет лишним подтвердить, что это тот самый человек, по другому каналу. Через мессенджеры, Скайп, e-mail, корпоративные каналы или соцсети. А в идеале, конечно же, – лицом к лицу.


Ну а если у вас есть глубокие познания в машинном обучении и вы не прочь получить кусок от пирога в $10 млн – можно попробовать себя в конкурсе Microsoft и Facebook. Или основать свой стартап, предлагающий государству и солидным компаниям бизнес-решение для определения дипфейков по картинке или по голосу. Без этого нам скоро будет не обойтись.

Источник: Хабр

Информационная безопасность IT

1.4K постов25.5K подписчиков

Добавить пост

Правила сообщества

Обязательно к прочтению для авторов:

1. Если вы добавляете пост, утверждающий об утечке данных или наличии дыр в системе, предоставьте ссылку на источники или технически подкованное расследование. Посты из разряда "Какой-то банк слил данные, потому что мне звонили мошенники" будут выноситься в общую ленту.
2. Все вопросы "Как обезопасить сервер\приложение\устройство" - в лигу "Компьютер это просто".

Обязательно к прочтению для всех:

Добавление ссылки разрешено если она не содержит описание коммерческих (платных) продуктов и/или идентификаторов для отслеживания перехода и для доступа не нужен пароль или оплата в т.ч. интернет-ресурсы, каналы (от 3-х тематических видео), блоги, группы, сообщества, СМИ и т.д.


Запрещены политические holy wars.

По решению модератора или администратора сообщества пользователь будет забанен за:

1. Флуд и оскорбление пользователя, в т.ч. провокация спора, флуда, холивара (высказывание без аргументации о конкретной применимости конкретного решения в конкретной ситуации), требование уже данного ответа, распространение сведений порочащих честь и репутацию, принижающих квалификацию оппонента, переходы на личности.

2. Публикацию поста/комментария не соответствующего тематике сообщества, в том числе обсуждение администраторов и модераторов сообщества, для этого есть специальное сообщество.

3. За обвинение в киберпреступной деятельности.

4. За нарушение прочих Правил Пикабу.

Вы смотрите срез комментариев. Показать все
60
Автор поста оценил этот комментарий
У меня тут друг спрашивает ссылку на видео со Скарлет с этим дипфейком
раскрыть ветку (30)
35
Автор поста оценил этот комментарий
Поиск «deepfake» в известной социальной сети даст успех твоему другу.
Мой друг только что попробовал и сразу нашел. Не совсем похожи, конечно, но иногда да.
Охренеть конечно, Марго Робби, Анджелина Джоли, Мария Шарапова, Мила Азул.
А не, Мила Азул и так была
раскрыть ветку (7)
16
Автор поста оценил этот комментарий
Вот когда утечки приватных фото и видео пойдут на руку их авторам. В deepfake с Лоуренс сразу видно что не она. ))
6
Автор поста оценил этот комментарий
Я недавно нашел дипфейк Гермионы с телом транса) забавная херня)
раскрыть ветку (4)
9
Автор поста оценил этот комментарий

Ты уверен что это дипфейк?)

раскрыть ветку (2)
6
DELETED
Автор поста оценил этот комментарий

Еще лучше.

Автор поста оценил этот комментарий

я теперь ни в чем не уверен

Иллюстрация к комментарию
1
DELETED
Автор поста оценил этот комментарий
Нужна ссылка
для...
Обучения нейросетей, да
Автор поста оценил этот комментарий

Марго Робби к сожалению вообще не похожа. Как,в общем-то, и остальные

51
Автор поста оценил этот комментарий

Идёте вот на этот поисковик:

https://duckduckgo.com/

Другие дают ссылки на интервью. И вбиваете:

Watch Scarlett Johansson Deepfakes


И поисковик, и запрос по отдельности не пошлые, а юаны ща не долгие. Заодно и посмотрю на бан изнутри. Ещё не видел.

раскрыть ветку (6)
28
Автор поста оценил этот комментарий

О. Я вот попробовал и понял, как законтрить фейки: достаточно иметь уникальную внешность и мимику. Попробовал найти Ханниган, в обоих видосах прямо сразу видно что лицо не её, сходство есть, но практически при первых же проявлениях мимики становится видна разница - милашности как не бывало, превращается в типичную модельную тётку из голливуда, вроде вышеупомянутых.

раскрыть ветку (4)
47
DELETED
Автор поста оценил этот комментарий

это вопрос времени (в глобальном плане. нейросети учатся) и аппаратных мощностей

12
Автор поста оценил этот комментарий

Изи, осталось только переродиться с новым лицом.

6
Автор поста оценил этот комментарий

Там все зависит от усердия того,кто пилит,до сих пор там овердохуя рутинной ручной работы нужно делать,чтобы был приемлемый результат был

Автор поста оценил этот комментарий

Ну у Обри Плаза тоже достаточно необычная внешность и мимика для голливуда, но на нее тоже делали дипфейкс. Не помню правда, насколько качественно.

Автор поста оценил этот комментарий

Глянул, с волосами дипфейк пока не очень хорошо поработал, но если смотреть в 360, то действительно не отличить.

11
Автор поста оценил этот комментарий
011010000111010001110100011100000111001100111010001011110010111101110111011101110111011100101110011110000111011001101001011001000110010101101111011100110010111001100011011011110110110100101111011101100110100101100100011001010110111100110100001101100011100100110010001100000011001100111000001100110010111101101000011011110111010001011111011100110110001101100001011100100110110001100101011101000111010001011111011010100110111101101000011000010110111001110011011100110110111101101110010111110111000001101111011101100101111101100110011000010110101101100101

скарлет в deepfakes, не благодарите
раскрыть ветку (4)
15
Автор поста оценил этот комментарий
Если что, все ваши зашифрованные ссылки модераторами расцениваются как обычные. Так что мог бы и не запариваться, а давать сразу прямую ссылку)
7
Автор поста оценил этот комментарий
Вы в середине после 011011 пропустили 0...
[изображение Шелдона, который смотрит с укоризной и иронией.жпг]
Автор поста оценил этот комментарий

А для тупых - как разблочить?

раскрыть ветку (1)
Автор поста оценил этот комментарий
Иллюстрация к комментарию
24
Автор поста оценил этот комментарий
Иллюстрация к комментарию
раскрыть ветку (1)
15
Автор поста оценил этот комментарий

Ух спасибо, даже лучше, чем я мог себе вообразить..

3
Автор поста оценил этот комментарий

Постою рядом.  Друг тоже интересуется.

раскрыть ветку (1)
3
Автор поста оценил этот комментарий

Если кто спросит, я за вами. Сейчас подойду...

2
Автор поста оценил этот комментарий
Комментарий удален. Причина: откровенная эротика в обыкновенном посте или порнографический контент
Автор поста оценил этот комментарий

А у меня друг спрашивает ссылки на хорошие проги/сервисы для создания таких фейков)

Автор поста оценил этот комментарий

тоже тут подожду

раскрыть ветку (2)
1
Автор поста оценил этот комментарий

извините мне только спросить..

Вы смотрите срез комментариев. Чтобы написать комментарий, перейдите к общему списку