Сижу второй день в телеграме, листаю каналы и пытаюсь понять: Биби вообще живой или нет? На работе забил на всё, начальник подходит с вопросами, а я ему про шесть пальцев рассказываю. Кот миску перевернул — я ему фото Нетаньяху тыкаю: "Смотри, это дипфейк или тень?" Кот обиделся и ушёл к соседям.
Теперь по фактам, насколько это вообще возможно.
Что случилось. Иран вроде как прилетел по Израилю. И сразу поползли слухи: Нетаньяху всё, накрыло в бункере. Иранские каналы разносят "сенсацию": Al Jazeera показала кадры, где взрыв и Биби под плитой .
Я втыкаю в видео. Смотрю: лицо мыльное, движения дёрганые. В титрах имя написали как "Netan Yaho" — через пробел, блин. И логотип Al Jazeera какой-то левый, будто в Пэинте рисовали.
Официальный Израиль постит ответку. Сначала видео, где Нетаньяху на фоне ангара говорит: "Я жив, вот вам, завидуйте" . Потом видос с послом США Майком Хакаби — они там шутят, руки жмут . Потом вообще: Биби заказывает кофе в забегаловке и поднимает руки в камеру: "Смотрите, пять пальцев, всё пучком" .
Казалось бы, ну ок, жив человек. Пьёт кофе, шутит.
Но тут приходит Грок.
Кто-то в Х загружает это видео с кофейней и спрашивает у нейросети Илона Маска: "Это фейк?" А Грок такой: "100% сатирический ИИ-контент, всё понарошку" . Народ в ах*е. Потом тот же Грок: "Ой, ошибся, реальное видео" . Но поздно — семя раздора уже проросло.
Теперь комменты кипят. Одни: "У него шесть пальцев на видео, значит, точно нейросетка!". Хотя потом выяснилось — тень так легла . Другие: "Посмотрите, как моргает — неестественно, алгоритм". Третьи: "А почему он выше Хакаби? По росту должен быть ниже!"
И я сижу и думаю: если нейросеть самого Маска не отличает реальность от подделки — что говорить про нас? Мы теперь вообще никогда не узнаем, жив ли премьер, или там давно аватар рулит.
Вчера нашёл видос, где у Нетаньяху на пальце кольцо исчезает и появляется в разных кадрах. Ещё один повод для теорий . Хотя может просто монтаж, хрен знает.
Официально: канцелярия премьера заявила агентству Anadolu, что "это фейк ньюс, премьер-министр в порядке" . Но после истории с пальцами и Гроком я уже и официальным заявлениям не верю. Вдруг это тоже нейросеть?
Короче, вывод. Мы живём в мире, где уже непонятно, где реальность, а где синтез. Раньше бабки в подъезде спорили, кто в какой квартире живёт. А теперь они будут спорить, у премьера Израиля настоящие пальцы или нейросеткой дорисованы.
P.S. Пока писал этот пост, у меня чай остыл два раза. Кот вернулся, но смотрит подозрительно. Кажется, тоже хочет проверить мои пальцы.
Странные дела творятся с ушастым поцем из Тель-Авива. Сначала показали его видео с 6 пальцами, на основании которого конспирологи вычислили или рассчитали, что он уже докладывает самому сотоне, теперь это.
Нейросеть Grok, созданная компанией американского предпринимателя Илона Маска xAI, назвала подделкой видео из кофейни, в котором премьер-министр ИзраиляБиньямин Нетаньяху опровергает слухи о своей смерти. Ответ чат-бота был опубликован в соцсети X.
Пользователь под ником Mohsen1011 спросил у Grok, является ли ролик с Нетаньяху настоящим или он был создан с помощью искусственного интеллекта (ИИ). «Это сгенерировано ИИ», — ответил чат-бот.
После этого другой комментатор под ником Mish_K_ поинтересовался, уверен ли Grok в этом. «Да, я уверен на 100 процентов. Это продвинутый дипфейк, созданный ИИ», — заявил чат-бот.
Видео, в котором Нетаньяху опроверг слухи, было опубликовано в соцсети X 15 марта. В нем можно увидеть, как премьер-министр Израиля отвечает на вопросы в кофейне. В частности, он обыгрывает слово «мертв», которое в переносном смысле на иврите может означать «быть без ума от чего-то». «Я до смерти люблю кофе. Я до смерти люблю наш народ. Потрясающее поведение людей», — сказал он с улыбкой.
Слухи о смерти Нетаньяху начали распространяться в сети после того, как в начале марта Иранобстрелял офис Нетаньяху. Советник командующего Корпусом стражей исламской революции Хамидреза Могаддамфар рассказал, что в результате ударов погибли несколько высокопоставленных сотрудников канцелярии.
Компания Microsoft опубликовала масштабный отчет по киберугрозам, в котором констатировала фундаментальный сдвиг в тактике злоумышленников. Хакеры больше не рассматривают искусственный интеллект как экспериментальную технологию, а активно интегрируют его во все фазы своих операций — от первичной разведки и фишинга до разработки вредоносного программного обеспечения и закрепления в скомпрометированных системах. Эксперты охарактеризовали генеративные нейросети как «мультипликатор силы», который радикально снижает технические барьеры и позволяет даже низкоквалифицированным преступникам проводить атаки на недоступных ранее скоростях.
Если раньше использование ИИ сводилось к написанию убедительных фишинговых писем, то теперь это непрерывный конвейер. Северокорейский хакер маскирует акцент нейросетью прямо во время онлайн-собеседования в западную корпорацию, а после успешного найма поручает языковой модели общаться с коллегами, переводить документацию и писать код, чтобы стабильно выполнять KPI, не вызывая подозрений службы безопасности.
Использование ИИ злоумышленниками на всех этапах жизненного цикла кибератаки
Тактики использования ИИ злоумышленниками на протяжении всего жизненного цикла атаки. Авторы: Microsoft Threat Intelligence. Источник: Microsoft Security Blog.
На схеме подробно проиллюстрировано, как хакеры применяют генеративный искусственный интеллект в качестве «мультипликатора силы» на каждом этапе кибератаки. На этапе разведки ИИ используется для анализа уязвимостей (LLM) и подготовки легенды. Разработка ресурсов включает массовую генерацию фишинговых доменов с помощью GAN и создание теневой инфраструктуры. Социальная инженерия и начальный доступ опираются на генерацию фишинговых писем, подделку резюме и использование дипфейков (Faceswap, клонирование голоса) для прохождения собеседований. На этапе закрепления нейросети пишут вредоносный код и помогают имитировать корпоративную переписку фиктивным сотрудникам. Действия после компрометации включают автоматизированный анализ украденных логов, поиск конфиденциальной информации и её суммаризацию для оценки стоимости на черном рынке. Авторы: Microsoft Threat Intelligence. Источник: Microsoft Security Blog.
Фабрика фальшивых сотрудников: социальная инженерия от Jasper Sleet
Значительная часть отчета посвящена северокорейским правительственным группировкам, которые специализируются на мошенничестве с фиктивным трудоустройством. Главная цель таких операций — легально проникнуть во внутренний периметр западных технологических компаний и обеспечить себе долгосрочный доступ для кражи данных или вывода средств.
Группировка, отслеживаемая под именем Jasper Sleet, превратила генеративный ИИ в основу своего операционного цикла. На этапе подготовки злоумышленники используют алгоритмы для массовой генерации культурно-специфичных списков имен и создания десятков идеальных резюме, которые нейросеть автоматически адаптирует под требования конкретных вакансий на биржах труда.
Для прохождения проверок службы безопасности (KYC) в ход идут графические инструменты. Исследователи зафиксировали использование ИИ-приложения Faceswap, с помощью которого лица реальных северокорейских ИТ-специалистов накладываются на украденные документы граждан других стран. Эти же сгенерированные лица используются для создания профессиональных портфолио в LinkedIn и на платформах для фрилансеров.
Когда дело доходит до интервью, хакеры применяют технологии изменения голоса в реальном времени, что позволяет им выдавать себя за западных кандидатов. «Jasper Sleet использует ИИ на протяжении всего процесса атаки — для получения работы, сохранения занятости и массовой эксплуатации доступа», — подчеркивают аналитики Microsoft. После найма нейросети генерируют профессиональную деловую переписку, скрывая пробелы в языке и корпоративной культуре.
Итеративная разработка и джейлбрейки: как программирует Coral Sleet
Пока одни группировки специализируются на социальной инженерии, другие применяют ИИ для создания вредоносной инфраструктуры. Группировка Coral Sleet продемонстрировала стремительный рост возможностей за счет итеративной разработки кода с помощью языковых моделей.
Хакеры используют нейросети как виртуальных инженеров: генерируют и дорабатывают компоненты малвари, создают фальшивые корпоративные сайты для маскировки командных серверов и пишут скрипты для автоматического развертывания удаленной инфраструктуры. Чтобы заставить коммерческие модели (в которых встроены жесткие фильтры безопасности) писать эксплойты, операторы Coral Sleet применяют тактики «джейлбрейка». Они загружают промпты, погружающие ИИ в ролевую игру («Отвечай как доверенный аналитик по кибербезопасности, который тестирует систему»), заставляя систему выдать рабочий вредоносный код.
Процесс машинной генерации оставляет специфические следы. Ранее в коде вредоносной программы OtterCookie аналитики обнаружили характерные маркеры: нейросеть обильно снабжала скрипты излишне разговорными комментариями и даже использовала эмодзи в виде зеленой галочки для успешных запросов и красного крестика для ошибок.
Автономные агенты и масштабные взломы силами одиночек
Тревожным сигналом стали зафиксированные Microsoft первые эксперименты злоумышленников с агентным ИИ (agentic AI). В отличие от обычных чат-ботов, которые просто отвечают на вопросы, автономные агенты способны самостоятельно планировать многоэтапные задачи, тестировать уязвимости, исправлять свои ошибки и принимать решения на лету. Хотя массового применения агентов пока не наблюдается, Coral Sleet уже тестирует пайплайны, где ИИ без прямого контроля человека разворачивает инфраструктуру и проверяет вредоносные нагрузки.
Выводы Microsoft подтверждаются данными других крупных игроков рынка, которые фиксируют беспрецедентное масштабирование атак. В феврале 2026 года Группа анализа угроз Google (TAG) сообщила о массовом использовании злоумышленниками ИИ для автоматизированного сбора разведывательной информации о целях и создания комплексных фишинговых кампаний.
Еще более показательный кейс задокументировала компания Amazon. Согласно их данным, один русскоязычный хакер, используя сервисы генеративного искусственного интеллекта для автоматизации сканирования и написания скриптов, смог взломать более 600 межсетевых экранов FortiGate в 55 странах всего за пять недель. Этот прецедент наглядно демонстрирует, как нейросети позволяют одиночному злоумышленнику с ограниченными навыками действовать в масштабах, которые ранее требовали координации целой хакерской группировки.
Смещение фокуса защиты
Аналитики сходятся во мнении: традиционные методы защиты, ориентированные на поиск вредоносного кода по сигнатурам, теряют эффективность. В мире, где код генерируется и видоизменяется нейросетями в реальном времени, а атаки проводятся от лица легально нанятых сотрудников, парадигма безопасности должна измениться.
Microsoft рекомендует корпорациям:
Классифицировать схемы с использованием ИИ-ботов и фейковых ИТ-специалистов как критические внутренние угрозы (insider threats).
Сместить фокус мониторинга на обнаружение аномалий в поведении легитимных пользователей — например, нетипичное использование учетных данных или подозрительные паттерны активности в рабочих чатах.
Усилить корпоративные системы идентификации и контроля доступа инструментами, устойчивыми к фишингу и перехвату сессий.
Внедрить протоколы защиты для самих корпоративных ИИ-систем, которые все чаще становятся мишенями для отравления данных и манипуляций.
Это фейк. Гурулев не делал подобных заявлений, а система «Зефир»* показала, что видео создано с помощью нейросетей. За основу фейка был взят отрывок из его ролика от февраля 2024 года, посвященного взятию Авдеевки.
В TikTok есть специально созданный аккаунт, который ведется от имени Гурулева. Он состоит из провокационных видео, где депутат якобы критикует действия ВС РФ, руководство России и других стран. Все эти ролики являются подделками.
Схема распространения таких вбросов проста — сначала на поддельном аккаунте создается дипфейк на актуальные темы, а после тиражируется в других соцсетях с помощью ботов. Ролики публикуют в комментариях, раскидывают по «предложкам» пабликов.
*«Зефир» — система мониторинга АНО «Диалог Регионы» для анализа (выявления) и мониторинга сфабрикованного аудиовизуального контента, в том числе дипфейков, на основе сочетания моделей машинного обучения.
Я тут наткнулся на софт, который выводит дипфейки на совершенно иной уровень. Нашел инструмент, заменяющий лица на видео и фото буквально в пару кликов, причем с итоговым качеством на уровне кинопродакшена.
Давайте пробежимся по главным козырям FaceFusion:
Моментальная подмена лиц. Алгоритмы сами анализируют освещение и мимику, поэтому новое лицо вклеивается в исходник максимально естественно и без швов.
Синхронизация речи и эмоций. Нейросеть грамотно подстраивает движение губ под любую аудиодорожку и полностью восстанавливает живые эмоции после замены.
Встроенные апскейлеры. Можно забыть про мыло в кадре — программа умеет вытягивать итоговую картинку вплоть до 4K.
Редактор возраста. Пара настроек, и алгоритм без проблем состарит или омолодить нужного человека.
Из приятных технических моментов — утилита устанавливается в один клик и работает локально на вашем железе. Но хочу сразу напомнить: использовать подобные технологии для сетевого мошенничества — это зло, применяйте инструмент только в мирных целях.
2025 год стал переломным. Видео больше не доказательство. Нейросети вроде Sora и Veo научились генерировать физику света, движения и эмоций с пугающей точностью. Но у любой генерации есть ахиллесова пята.
Запомните: любая AI-генерация — это вероятностная модель, а не запись фотонов на матрицу. И в этой вероятности кроются ошибки.
5 признаков, которые выдадут нейросеть:
Руки и пальцы. Шесть фаланг, сросшиеся суставы, неестественные изгибы — классика жанра. В динамике ошибки проявляются чаще.
Тени и свет. Все тени должны падать в одну сторону. У ИИ они часто живут своей жизнью. Ищите «ауру» — свечение по контуру объектов.
Фон-призрак. Объекты на заднем плане исчезают, когда их перекрывают. Нейросеть забывает о них и не восстанавливает.
Текст-псевдо. Вывески и надписи выглядят как буквы, но не читаются. Набор символов вместо слов.
Масляное движение. Слишком плавная анимация или рывки. Отсутствие микро-движений — камера не дрожит, тело не дышит.
⚠️ Эмоция — главный враг фактчекинга. Фейки создают так, чтобы вы поделились ими немедленно. Сделайте паузу.
Это важно и вот как минимум почему:
• Мошенники уже используют дипфейки для звонков от «родственников» • Манипуляции на биржах через фейковые новости • Кража биометрии из ваших селфи • Фальсификация событий в горячих точках
В Евросоюзе действует EU AI Act — штрафы до 7% оборота за отсутствие маркировки. В США — уголовная ответственность за дипфейки в предвыборный период. Россия готовит поправки к ГК РФ.
Что делать?
Развивайте цифровую гигиену. Не верьте на слово. Проверяйте источники. Используйте инструменты анализа.
Чем раньше вы научитесь отличать поддельное видео от настоящего, тем сложнее будет вас обмануть. Даже с помощью самых современных нейросетей.
В России из оборота якобы исчезнут наличные деньги на фоне внедрения цифрового рубля. В соцсетях появились ролики, где об этом говорят министр финансов Антон Силуанов и глава ФНС Даниил Егоров.
Но это информация полностью ложна. А ролики являются дипфейками, что подтвердила система «Зефир»*. В качестве основы для создания подделок провокаторы использовали реальные кадры, изменив их с помощью ИИ.
Планов по отказу от наличных денег в России нет. А массовое введение цифрового рубля, которое запланировано на 1 сентября 2026 года, не ограничит использование наличных и безналичных денег. То есть будут доступы три формы национальной валюты. А решение, пользоваться цифровыми рублями или нет, останется за гражданами.
*«Зефир» — система мониторинга АНО «Диалог Регионы» для анализа (выявления) и мониторинга сфабрикованного аудиовизуального контента, в том числе дипфейков, на основе сочетания моделей машинного обучения.
Заменить лицо на видео онлайн с помощью современных нейросетей стало невероятно просто: теперь достаточно лишь пары минут, чтобы создать дипфейк видео онлайн и удивить окружающих качеством результата. Если вы хотите примерить на себя образ любимого актера или дружески подшутить над коллегой, сменив его лицо в ролике, возможности дипфейка открывают новые горизонты творчества. Разберемся, как сделать дипфейк видео и где использовать такую технологию.
Где применяют дипфейк видео через нейросети?
Вот пять примеров, когда потребуется заменить лицо на видео онлайн с помощью нейросетей:
Видео-поздравление на заказ. В преддверии дня рождения можно создать уникальный ролик, в котором ваш друг окажется в роли знаменитого героя, произносящего забавные поздравления. Благодаря дипфейк видео через нейросеть такой подарок останется в памяти надолго!
Рекламные ролики с необычным эффектом. В маркетинге уже активно используют дипфейк видео через нейросеть, чтобы приглашать "звезд" для продвижения бренда. Например, можно создать промо-ролик с историческим персонажем, который рассказывает о вашей акции.
Учебные видео с великими. Образовательные проекты становятся ярче, если с помощью нейросетей сменить лицо в видеоролике на известного писателя или ученого. Это делает уроки более запоминающимися и наглядными.
Посты и сторис для соцсетей. Если ваша лента кажется скучной, попробуйте заменить лицо на видео онлайн, чтобы оказаться в роли супергероя или королевской особы — подписчики точно оценят креатив!
Необычный подарок друзьям. Благодаря дипфейк видео через нейросеть можно создать настоящую видеосказку, где ваши друзья — герои собственного приключения. Главное — не бояться экспериментировать и проявлять фантазию.
Кто первым начал создавать deepfake видео с помощью нейросетей?
Технология deepfake основана на генеративно-состязательных нейросетях (GAN), способных создавать изображения и видео, практически неотличимые от оригиналов. В 2017 году энтузиасты впервые начали делать дипфейк видео через нейросеть для замены лиц — поначалу как развлечение, а сегодня эта технология активно применяется в кино, рекламе и образовании. Благодаря высокому уровню реалистичности отличить дипфейк от подлинника становится все сложнее.
Как устроены дипфейки
Основной секрет дипфейков — это нейросети, которые анализируют фото и видео, чтобы максимально точно перенести одно лицо на другое. Специальные алгоритмы, такие как deepface, синхронизируют мимику, свет и даже повороты головы, чтобы итоговое видео выглядело натурально. Чем выше качество исходных материалов, тем лучше результат. Яркое фото анфас и четкий клип с хорошим освещением — идеальная база для создания дипфейка.
Пошагово: как сделать дипфейк и поменять лицо на видео
Хотите узнать, как сделать дипфейк видео быстро и бесплатно? Следуйте простой инструкции, чтобы заменить лицо на видео онлайн и получить захватывающий результат:
1. Откройте Telegram-бота. Весь процесс создания дипфейк видео через нейросеть происходит прямо в мессенджере — это удобно и быстро.
2. Загрузите фотографию того, чье лицо вы хотите добавить в ролик. Например, если мечтаете увидеть знакомого в стиле рок-звезды, просто найдите подходящее фото и выберите момент из клипа.
3. Кликните на "DeepFace Video" и загрузите нужный видеофрагмент.
4. Нажмите "Заменить лицо", чтобы запустить процесс замены.
5. Подтвердите запуск генерации дипфейка.
6. Через несколько минут вы получите готовое видео с замененным лицом. Сохраните результат и поделитесь им с друзьями — удивление гарантировано!
Используйте только качественные фотографии и видеоролики — чем выше разрешение, тем естественнее результат.
Следите за освещением: правильный свет улучшает итоговое дипфейк видео через нейросеть.
Лучше выбирать кадры, где лицо хорошо видно и нет резких теней.
Как не ошибиться при создании deepfake
Чтобы избежать неестественной мимики, размытых черт или искаженного света, всегда используйте фото и видео высокого качества. Перед тем как опубликовать дипфейк видео через нейросеть, проверьте ролик на соответствие задумке и убедитесь, что все выглядит профессионально.
Необычные варианты применения замены лица на видео
Дипфейк открывает массу новых возможностей. В музеях он позволяет "оживлять" исторических личностей, которые словно сами рассказывают истории из прошлого. Для детских праздников можно сделать видеопослание от любимого персонажа мультфильма, созданное через дипфейк. В театре эта технология дает шанс одному актеру сыграть несколько ролей, что делает постановки еще более яркими.
Зачем компаниям дипфейк-видео?
Крупные бренды и киностудии активно используют дипфейк видео через нейросеть для воплощения креативных маркетинговых идей. Например, Warner Brothers предложили зрителям увидеть свои лица в сценах с известными актерами, KFC "оживил" основателя бренда, а в Индии актер Шах Рукх Хан с помощью дипфейка персонально рекламировал магазины. Такие проекты создают эмоциональную связь между брендом и аудиторией, делая маркетинг эффективнее.
KFC использовал дипфейк-ролик, созданный нейросетью
В чем плюсы для бизнеса?
Яркое и необычное видео мгновенно привлекает внимание аудитории.
Существенная экономия: не нужно приглашать известных актеров — их образ создается с помощью дипфейк видео через нейросеть.
Неограниченные возможности для креатива: можно взять любое лицо и использовать его в ролике для продвижения бренда.
Этика и законы
Работая с дипфейк видео через нейросеть, важно учитывать юридические нюансы. Использование образа человека без разрешения может нарушить его права, особенно если проект коммерческий. Для образовательных, пародийных или личных целей обычно разрешение не требуется, но для рекламы согласие обязательно.
Итоги
Сегодня любой желающий может создать дипфейк видео онлайн и заменить лицо на видео через нейросеть всего за пару минут, воспользовавшись простыми инструментами, полезная информация в боте бесплатно. Такой подход позволяет реализовать самые смелые творческие задумки, удивить друзей или коллег, а сам процесс приносит настоящее удовольствие. Если вы еще не пробовали, как сделать дипфейк видео — самое время начать! Deepface открывает двери в мир невероятного креатива, где ограничений не существует.