5

Небезопасный контент (18+)

Deep Fake: когда глубже уже некуда

Продолжаем разговор о методе замены изображения или голоса с помощью нейросетей – дипфейках. На этот раз подробнее не о развлекательной, а о теневой части применения технологии. Неосторожное использование биометрии может нанести непоправимый урон на уровне международных отношений и интернационального бизнеса. Почему мы продолжаем смеяться над смешными видео ТикТока, а не задумываться над дополнительной безовасностью своих «данных тела»?


Итак, мы выяснили, что создание изображений, видео или записи голоса с помощью нейросетей – крайне интересная и увлекательная штука. Но, конечно же, как и любая современная технология, она может использоваться во благо и во зло. Посмотрим, что еще делают с помощью дипфейков и почему стоит прислушаться к некоторым аргументам против биометрии.

Распространенность дипфейков все время растет. С 2018 года к 2020 их количество в сети выросло больше чем в десять раз (есть специальные люди, которые это замерили). При этом минимум из них создали для развлечения, остальные – с целью манипуляций. Уже на этом моменте понятно, что дипфейки могут навредить почти кадому человеку, выложившему хоть раз свое фото или видео в интернет. Возникает очевидный вопрос: почему токенизация еще не обязательная история? Удивительно, как сливы персональных данных, взломы Госуслуг и баз ведущих банков страны не рождают в головах людей мысли, что следует пользоваться дополнительными мерами защиты личной информации, которые давно разработаны и не так-то легко поддаются взлому. Но вернемся к теме.

Deep Fake: когда глубже уже некуда

Вот лишь несколько направлений, где дипфейки уже показали себя опасным инструментом: бизнес, политика, потребительские риски. На самом деле, вопрос настолько глобален, а технология настолько всеобъемлющая, что может случиться что угодно, когда угодно и с кем угодно. Не обязательно быть политиком или супермоделью: манипуляции на бытовом уровне могут быть неприятны и фатальны для любого пользователя интернета. Поэтому важно, чтобы помимо использования биометрии (ибо это не остановить), использовать программный токен для дополнитльной защиты данных.

Начнем с бизнеса и нескольких кейсов. В 2019 году стал известен случай мошенничества с помощью дипфейк-аудио. В Великобритании один из руководителей энергетической компании говорил по телефону с директором главного подразделения, расположенного в Германии. Тот (голосом, сгенерированным нейросетью) попросил его в течение часа перевести крупную сумму денег на счет поставщика в Венгрии.

Такая же схема мошенничества в ОАЭ заставила менеджеров банка перевести на счет мошенников, которые «клонировали» голос директора, 35 млн. долларов. Такие простейшие схемы повсеместны.

В политике для простого гражданина ущерб от дипфейков может быть не столь очевиден, но для политика он ощутим. В основном, это репутационные риски. Если дипфейк выпущен в нужное время и правильно подсвечен в медиа – избиратели потеряны. Так, в 2020 году в Нью-Дели, за день до выборов в местный Парламент по сети разлетелось вирусное видео-дипфейк. На нем представитель одной из главных политических партий Индии говорил на специфическом диалекте. Как мы понимаем, зачастую тонкие нюансы безумно важны для завоевания доверия избирателей, и диалект – это как раз тот случай. На появлении этого видео сыграли конкуренты, сделав акцент на том, как говорит политик. Видео распространили среди 15 млн человек через веерную рассылку в WhatsApp.

Или такой пример: бывшая (теперь уже) премьер-министр Бельгии Софи Вильмес на видео обращается к населению по вопросу эпидемии. Слова в дипфейк-видео отличаются от оригинала. В частности, фраза, что глобальная эпидемия связана с «эксплуатацией и разрушением людьми природной среды» для премьер-министра была довольно громким заявлением.

Да, как и в случае с бизнесом, в политике очень высоки репутационные риски, а в этом деле репутация и доверие – это основа. В отличие от СМИ и официальных представителей каких-либо органов, избиратели не будут интересоваться подробностями: общественное мнение формируется быстро, а меняется обратно тяжело.

В США, где было уже несколько скандальных историй с дипфейками, считается: они настолько опасны, что угрожают национальной безопасности. В Калифорнии размещение в течение 60 дней после выборов видео, где заменили лицо или речь кандидата, запрещено. В придачу к этому есть и другой закон: любой житель Калифорнии может подать в суд на того, кто вставил его изображение в порно. Это тоже о дипфейках, но с другой стороны.


Кстати, если говорить о случаях с дипфейк-порно, здесь тоже есть случаи масштабного мошенничества. В Индии в 2021 году была очень показательная история. Мужчинам звонили женщины по видеосвязи, раздевались, вынуждали мужчину также разоблачиться, а сами записывали его на видео. Позже мужчин шантажировали, вымогая деньги за такое видео. Так вот, больше половины жертв говорили не с реальными женщинами, а со сгенерированными изображениями.

Пожалуй, это вдвойне обидно.

Темы

Политика

Теги

Популярные авторы

Сообщества

18+

Теги

Популярные авторы

Сообщества

Игры

Теги

Популярные авторы

Сообщества

Юмор

Теги

Популярные авторы

Сообщества

Отношения

Теги

Популярные авторы

Сообщества

Здоровье

Теги

Популярные авторы

Сообщества

Путешествия

Теги

Популярные авторы

Сообщества

Спорт

Теги

Популярные авторы

Сообщества

Хобби

Теги

Популярные авторы

Сообщества

Сервис

Теги

Популярные авторы

Сообщества

Природа

Теги

Популярные авторы

Сообщества

Бизнес

Теги

Популярные авторы

Сообщества

Транспорт

Теги

Популярные авторы

Сообщества

Общение

Теги

Популярные авторы

Сообщества

Юриспруденция

Теги

Популярные авторы

Сообщества

Наука

Теги

Популярные авторы

Сообщества

IT

Теги

Популярные авторы

Сообщества

Животные

Теги

Популярные авторы

Сообщества

Кино и сериалы

Теги

Популярные авторы

Сообщества

Экономика

Теги

Популярные авторы

Сообщества

Кулинария

Теги

Популярные авторы

Сообщества

История

Теги

Популярные авторы

Сообщества