Небезопасный контент (18+)
Авторизуйтесь или зарегистрируйтесь для просмотра
Селфи
Вашим глазам больше нельзя верить. Как распознать AI-видео за 60 секунд
2025 год стал переломным. Видео больше не доказательство. Нейросети вроде Sora и Veo научились генерировать физику света, движения и эмоций с пугающей точностью. Но у любой генерации есть ахиллесова пята.
Запомните: любая AI-генерация — это вероятностная модель, а не запись фотонов на матрицу. И в этой вероятности кроются ошибки.
5 признаков, которые выдадут нейросеть:
Руки и пальцы. Шесть фаланг, сросшиеся суставы, неестественные изгибы — классика жанра. В динамике ошибки проявляются чаще.
Тени и свет. Все тени должны падать в одну сторону. У ИИ они часто живут своей жизнью. Ищите «ауру» — свечение по контуру объектов.
Фон-призрак. Объекты на заднем плане исчезают, когда их перекрывают. Нейросеть забывает о них и не восстанавливает.
Текст-псевдо. Вывески и надписи выглядят как буквы, но не читаются. Набор символов вместо слов.
Масляное движение. Слишком плавная анимация или рывки. Отсутствие микро-движений — камера не дрожит, тело не дышит.
⚠️ Эмоция — главный враг фактчекинга. Фейки создают так, чтобы вы поделились ими немедленно. Сделайте паузу.
Это важно и вот как минимум почему:
• Мошенники уже используют дипфейки для звонков от «родственников»
• Манипуляции на биржах через фейковые новости
• Кража биометрии из ваших селфи
• Фальсификация событий в горячих точках
В Евросоюзе действует EU AI Act — штрафы до 7% оборота за отсутствие маркировки. В США — уголовная ответственность за дипфейки в предвыборный период. Россия готовит поправки к ГК РФ.
Что делать?
Развивайте цифровую гигиену. Не верьте на слово. Проверяйте источники. Используйте инструменты анализа.
Чем раньше вы научитесь отличать поддельное видео от настоящего, тем сложнее будет вас обмануть. Даже с помощью самых современных нейросетей.











































