Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги Информационная безопасность, Машинное обучение, Искусственный интеллект, Длиннопост, Deepfake, Habr

C момента своего появления в декабре 2017-го дипфейки, видео с почти идеальной заменой лица, созданные нейросетью, наводили на экспертов панику. Многие, например, тогда боялись, что теперь еще проще станет «порно-месть», когда бывший бойфренд с достаточно мощным ПК может смастерить любое грязное порно с подругой. А Натали Портман и Скарлетт Йоханссон, о которых порно с deepfake снимали особенно много, публично прокляли интернет.


Чтобы бороться с подступающей угрозой, Facebook и Microsoft недавно собрали коалицию для борьбы с дипфейками, объявив призовой фонд $10 млн тем разработчикам, которые придумают лучшие алгоритмы для их обнаружения. Это помимо DARPA, управления исследованиями Министерства обороны США, выделившего на эту цель $68 млн за последние два года.


Ну так вот, уже поздно. Первое deepfake-преступление уже состоялось.

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги Информационная безопасность, Машинное обучение, Искусственный интеллект, Длиннопост, Deepfake, Habr

По данным Wall Street Journal, в марте этого года управляющий директор британской энергетической компании был ограблен на €220 000 (около $240 000). Он отправил эти деньги фирме-поставщику из Венгрии, потому что его босс, глава материнской фирмы в Германии, несколько раз подтвердил ему такую инструкцию. Но на самом деле какой-то хитрый злоумышленник просто использовал софт с AI-технологиями, чтобы в режиме реального времени заменять голос руководителя, и требовать, чтобы тот заплатил ему в течение часа.


Программа, которую использовал вор, смогла полностью имитировать голос человека: тон, пунктуацию, даже немецкий акцент. Сообщение исходило с адреса босса в Германии, в подтверждение британскому директору был направлен e-mail с контактами. Предположить, что что-то идёт не так, можно было разве что по требованию босса провести всю сделку как можно быстрее, но это далеко не первый аврал, который случался в их бизнесе.


В итоге – все деньги пропали. Из венгерского аккаунта их перевели в Мексику, а потом рассеяли по всему миру. Но воры на этом не остановились. Они попросили второй срочный перевод, чтобы «поставки из Венгрии» «пошли еще быстрее». Тут уж британский директор почуял неладное, и позвонил своему настоящему боссу. Получился какой-то сюр: он по очереди принимал звонки то от фейкового, то от настоящего руководителя, говорящих одинаковыми голосами. Название компании и её сотрудников не разглашаются, поскольку по этому делу ведется расследование, и воры еще не найдены.

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги Информационная безопасность, Машинное обучение, Искусственный интеллект, Длиннопост, Deepfake, Habr

Возможно, это даже не первая кража с использованием Deepfake AI (или его продвинутых последователей). Symantec сообщает, что она засекла как минимум три случая, в которых замена голоса помогла ворам обхитрить компании и заставить их послать им деньги. В одном из этих случаев ущерб составил миллионы долларов. Причем, судя по косвенным признакам, этот трюк был проделан другими злоумышленниками – не теми, которые обокрали британского СЕО. То есть, deepfake-преступления постепенно становятся общим достоянием, это не придумка какого-то одного гениального хакера.


На самом деле, скоро такую процедуру сможет проделать любой школьник. Главное – найти достаточно доверчивую жертву, и собрать нужное количество сэмплов видео/аудио, чтобы имперсонировать, кого потребуется. Google Duplex уже успешно мимикрирует под голос реального человека, чтобы делать звонки от его имени. Многие небольшие стартапы, в основном из Китая, работают над тем, чтобы предлагать похожие на deepfake сервисы бесплатно. Разные программы-дипфейки даже соревнуются друг с другом, кто сможет сгенерировать достаточно убедительное видео с человеком, используя минимальный объем данных. Некоторые заявляют, что скоро им будет достаточно одного вашего фото.


В июле Израильское национальное управление защиты от киберугроз выпустило предупреждение о принципиально новом виде кибератак, которые могут быть направлены на руководство компаний, ответственных сотрудников и даже высокопоставленных чиновников. Это первая и на данный момент самая реальная AI-угроза. Они говорят, уже сейчас есть программы, способные идеально передать ваш голос и акцент, прослушав вас 20 минут. Если где-то в сети есть запись с вашей речью в течение получаса, или если кто-то немного посидел рядом с вами в кафе с диктофоном, ваш голос теперь может быть использован, чтобы сказать кому угодно что угодно.


Пока что инструментов для борьбы с этим нет. Вариант защититься только один. Если вам кто-то звонит и просит перевести существенную сумму денег, – не будет лишним подтвердить, что это тот самый человек, по другому каналу. Через мессенджеры, Скайп, e-mail, корпоративные каналы или соцсети. А в идеале, конечно же, – лицом к лицу.


Ну а если у вас есть глубокие познания в машинном обучении и вы не прочь получить кусок от пирога в $10 млн – можно попробовать себя в конкурсе Microsoft и Facebook. Или основать свой стартап, предлагающий государству и солидным компаниям бизнес-решение для определения дипфейков по картинке или по голосу. Без этого нам скоро будет не обойтись.

Источник: Хабр

Информационная безопасность IT

1.4K постов25.5K подписчика

Добавить пост

Правила сообщества

Обязательно к прочтению для авторов:

1. Если вы добавляете пост, утверждающий об утечке данных или наличии дыр в системе, предоставьте ссылку на источники или технически подкованное расследование. Посты из разряда "Какой-то банк слил данные, потому что мне звонили мошенники" будут выноситься в общую ленту.
2. Все вопросы "Как обезопасить сервер\приложение\устройство" - в лигу "Компьютер это просто".

Обязательно к прочтению для всех:

Добавление ссылки разрешено если она не содержит описание коммерческих (платных) продуктов и/или идентификаторов для отслеживания перехода и для доступа не нужен пароль или оплата в т.ч. интернет-ресурсы, каналы (от 3-х тематических видео), блоги, группы, сообщества, СМИ и т.д.


Запрещены политические holy wars.

По решению модератора или администратора сообщества пользователь будет забанен за:

1. Флуд и оскорбление пользователя, в т.ч. провокация спора, флуда, холивара (высказывание без аргументации о конкретной применимости конкретного решения в конкретной ситуации), требование уже данного ответа, распространение сведений порочащих честь и репутацию, принижающих квалификацию оппонента, переходы на личности.

2. Публикацию поста/комментария не соответствующего тематике сообщества, в том числе обсуждение администраторов и модераторов сообщества, для этого есть специальное сообщество.

3. За обвинение в киберпреступной деятельности.

4. За нарушение прочих Правил Пикабу.

Вы смотрите срез комментариев. Показать все
159
DELETED
Автор поста оценил этот комментарий

эдак нам и президента подсунут фальшивого

раскрыть ветку (45)
49
Автор поста оценил этот комментарий

А Пелевин предупреждал ;)

38
Автор поста оценил этот комментарий
В Простоквашино предупреждали, а вы не слушали!
Иллюстрация к комментарию
267
Автор поста оценил этот комментарий
Никогда такого не было и вот опять
раскрыть ветку (5)
39
Автор поста оценил этот комментарий
Иллюстрация к комментарию
раскрыть ветку (3)
2
Автор поста оценил этот комментарий

ты просто вынуждаешь держать на этом уровне

раскрыть ветку (2)
3
Автор поста оценил этот комментарий
Сломали, пикабушники окаянные
раскрыть ветку (1)
1
Автор поста оценил этот комментарий

Ща починим!

ещё комментарий
39
Автор поста оценил этот комментарий

Да шо ви такое говорите, не может быть!

Иллюстрация к комментарию
раскрыть ветку (3)
1
Автор поста оценил этот комментарий

Пелевин об этом ещё двадцать лет назад писал

раскрыть ветку (1)
Автор поста оценил этот комментарий

а Оруэлл об этом семьдесят лет назад писал


кстати с годовщиной

Автор поста оценил этот комментарий

Чем то Оруэлла напомнило с его 1984

103
Автор поста оценил этот комментарий

Две тысячи шестьсот сорок пятый год

Путин переизбран на сто третий срок

Раздавлен Китай, Америка пала

Россия теперь от Перу до Непала

Имперский штандарт на ветру гордо реет

Рухнули козни хитрых евреев

Новые церкви по миру стоят

Духовные скрепы народы хранят

раскрыть ветку (11)
45
Автор поста оценил этот комментарий
ЦЕРКОООООВЬ СВИДЕТЕЛЕЙ ПУУУУУТИНАААА
раскрыть ветку (3)
5
DELETED
Автор поста оценил этот комментарий
Наш имперский союз покорит
весь мир от Непала, к Неве на восток.
на земле везде будут петь - империя, Путин, непобедим
Автор поста оценил этот комментарий
Прочитала голосом бэдкомедиана
раскрыть ветку (1)
4
Автор поста оценил этот комментарий

А надо читать голосом романовского

8
Автор поста оценил этот комментарий
Иллюстрация к комментарию
1
Автор поста оценил этот комментарий
За Императора!
ещё комментарии
3
Автор поста оценил этот комментарий

вспоминается

Иллюстрация к комментарию
Иллюстрация к комментарию
раскрыть ветку (1)
1
Автор поста оценил этот комментарий

Второе фото - Эквиллибриум. Один из любимых фильмов)

2
Автор поста оценил этот комментарий

Про это даже фильм есть. Только название не могу вспомнить.

раскрыть ветку (15)
10
Автор поста оценил этот комментарий
Поколение П?
раскрыть ветку (12)
2
Автор поста оценил этот комментарий
Там люди создали роботов для тотального контроля в благих намерениях и полностью верили всему, что видели через камеры. А потом оказалось, что какой-то ии подделывает видео по своему усмотрению. Фильм не наш, американский.
раскрыть ветку (11)
Автор поста оценил этот комментарий
Теперь интересно стало, что за фильм.
раскрыть ветку (4)
2
Автор поста оценил этот комментарий
В четвёртом часу ночи мне самому вдруг приспичило его найти. И я таки нашёл!
Фильм называется "видеть всё".
Иллюстрация к комментарию
раскрыть ветку (1)
Автор поста оценил этот комментарий
Хех, я не сплю) спс
Автор поста оценил этот комментарий

Капец как! Я с вами тут подожду

раскрыть ветку (1)
Автор поста оценил этот комментарий
Я покопался и нашёл. Фильм "видеть всё".
Автор поста оценил этот комментарий
Не помню название этого фильма. Но если концовка без хеппи энда, то я его смотрел.
По сюжету сначала была создана глобальная сеть видео наблюдения. Затем камеры начали вешать на роботов, чтобы быть более мобильными. Позже им дали возможность предотвращать преступления.
События фильма разворачиваются на фоне выборов президента. А действующий президент пытается протолкнуть закон, который разрешит роботам приходить на частную территорию.
раскрыть ветку (2)
Автор поста оценил этот комментарий
Да, точно он. Правда в конце там вроде какой-то движ замутили с целью донести до людей правду и оставили типа открытым финалом.
Автор поста оценил этот комментарий
Иллюстрация к комментарию
Автор поста оценил этот комментарий

Матрица)

Автор поста оценил этот комментарий

"На крючке"?

По описанию похоже

Автор поста оценил этот комментарий
С ниггой Уилли Смитом?
7
Автор поста оценил этот комментарий
"А в идеале, конечно же, – лицом к лицу."
Предпросмотр
Автор поста оценил этот комментарий
Игорь скляр там играл
9
Автор поста оценил этот комментарий

Так вроде уже...

11
Автор поста оценил этот комментарий

уже давно нам его подсунули

1
Автор поста оценил этот комментарий
В статье будущее нашей зоной. Сейчас у них разводы по телефону, скоро глядишь компьютеры освоят.
Вы смотрите срез комментариев. Чтобы написать комментарий, перейдите к общему списку