Правдиво ли селфи китайской туристки, на которую напал снежный барс?
Помните недавно активно вирусились посты о том, что девушка решила сделать селфи со снежным барсом, а киса не оценила такого знака внимания и решил ей закусить?
Коротко для ЛЛ: не в лотерею, а в преферанс, не Волгу, а три рубля, не выиграл, а проиграл барс действительно напал на девушку, но деталь про селфи — фантазия, а фото выше — ИИ. Спасибо за внимание, дальше будет простыня текста с пруфами.
Контекст:
Снимок улыбающейся девушки с барсом на заднем плане публиковали СМИ (например «Аргументы и факты») и пользователи соцсетей («ВКонтакте», X, Instagram, Facebook, «Одноклассники»). Появилось фото и в популярных Telegram-каналах: «Топор+» (2,2 млн просмотров на момент написания разбора), «Топор Live» (575 000), «Всевидящее око 18+» (120 000), «Эфир +» (112 000), «АСТ-54 Black» (106 000) и др. Текст в большинстве публикаций совпадает практически дословно: якобы китайская туристка каталась на лыжах, заметила неподалёку хищника и не придумала ничего лучше, как подойти к нему, чтобы сделать селфи, после чего он и напал на девушку, которую впоследствии спасли случайные очевидцы.
Несчастный случай с туристкой, о котором говорится в публикациях, — не выдумка. 23 января 2026 года на китайском горнолыжном курорте Кёктокай снежный барс действительно напал на лыжницу, об чем сообщили многие местные СМИ. В отличие от вирусных публикаций в соцсетях, в этих заметках не было подробностей о том, что девушка якобы пыталась сделать селфи с хищником, — некоторые лишь уточняли, что нападение произошло, когда она возвращалась в отель. Позже очевидцы рассказывали журналистам, что, прежде чем напасть на девушку, барс некоторое время сидел в засаде, то есть, она вовсе не провоцировала его своими действиями, хищник сам собирался атаковать. Тем не менее зарубежные СМИ — как таблоиды вроде New York Post, так и вполне авторитетные издания вроде ABC и USA Today — писали, что туристка подошла к животному именно ради фотографии. При этом слово «селфи» они не использовали. Исключением стал американский The Sun, который даже опубликовал предполагаемый снимок.
Вскоре после инцидента появились и видео, снятые очевидцами. На них видно, как барс сидит над пострадавшей, затем он убегает, а несколько мужчин помогают девушке, закрывающей лицо руками, выбраться из снега. Эти кадры вместе с селфи, якобы сделанным несколькими минутами ранее, распространяли и многие русскоязычные блогеры.
Вирусная публикация (там есть немного крови)
Версия длиннее с Youtube (тут, соответственно, тоже)
На этих видео не запечатлён ни сам момент нападения барса на девушку, ни её действия непосредственно перед инцидентом. При этом к предполагаемому селфи есть целый ряд вопросов. Во-первых, барс на фото выглядит так, будто он тоже позирует — хищник смотрит чётко в камеру. Во-вторых, в Сети циркулирует сразу несколько версий одного и того же снимка, на которых китаянка носит разную одежду: в одних публикациях на ней красная куртка и бордовый шлем, в других — светлая куртка и чёрный шлем. Значит, по меньшей мере в части публикаций точно использовано отредактированное изображение. Одежда в версии со светлой курткой и чёрным шлемом похожа на ту, в которую пострадавшая одета на видео, однако, если присмотреться к роликам, на шлеме можно рассмотреть логотип Giro. На шлеме с предполагаемого селфи такой надписи нет.
Анализ изображений с помощью сервиса AI or Not показал, что обе версии созданы при помощи ИИ. По поводу селфи в светлой куртке с ним согласен и сервис Hive Moderation, в случае с изображением с красной курткой выводы разнятся. Хотя, как ранее объясняло «Проверено», даже самые продвинутые ИИ-детекторы могут давать как ложноположительные, так и ложноотрицательные результаты, с учётом приведённых выше доказательств можно сделать вывод, что вирусное изображение по меньшей мере подвергалось обработке с помощью ИИ.
Спустя примерно неделю после инцидента китайские СМИ сообщили, что напавшего на туристку снежного барса поймали. Перед этим он успел проникнуть на местную ферму и перебить 35 овец. Провоцировали ли его овцы, пытаясь сделать перед этим селфи, — неизвестно))0)
Таким образом, завирусившееся в Сети селфи китайской туристки на фоне снежного барса не было сделано пострадавшей и, скорее всего, полностью или частично сгенерировано нейросетью. На это указывают как сервисы для выявления такого контента, так и несовпадение одежды девушки на вирусных изображениях и на видео, снятых очевидцами.
Наш вердикт: фейк
«Проверено» в Телеграм
В сообществе отсутствуют спам, реклама и пропаганда чего-либо (за исключением здравого смысла)
Небезопасный контент (18+)
Авторизуйтесь или зарегистрируйтесь для просмотра
Селфи
Вашим глазам больше нельзя верить. Как распознать AI-видео за 60 секунд
2025 год стал переломным. Видео больше не доказательство. Нейросети вроде Sora и Veo научились генерировать физику света, движения и эмоций с пугающей точностью. Но у любой генерации есть ахиллесова пята.
Запомните: любая AI-генерация — это вероятностная модель, а не запись фотонов на матрицу. И в этой вероятности кроются ошибки.
5 признаков, которые выдадут нейросеть:
Руки и пальцы. Шесть фаланг, сросшиеся суставы, неестественные изгибы — классика жанра. В динамике ошибки проявляются чаще.
Тени и свет. Все тени должны падать в одну сторону. У ИИ они часто живут своей жизнью. Ищите «ауру» — свечение по контуру объектов.
Фон-призрак. Объекты на заднем плане исчезают, когда их перекрывают. Нейросеть забывает о них и не восстанавливает.
Текст-псевдо. Вывески и надписи выглядят как буквы, но не читаются. Набор символов вместо слов.
Масляное движение. Слишком плавная анимация или рывки. Отсутствие микро-движений — камера не дрожит, тело не дышит.
⚠️ Эмоция — главный враг фактчекинга. Фейки создают так, чтобы вы поделились ими немедленно. Сделайте паузу.
Это важно и вот как минимум почему:
• Мошенники уже используют дипфейки для звонков от «родственников»
• Манипуляции на биржах через фейковые новости
• Кража биометрии из ваших селфи
• Фальсификация событий в горячих точках
В Евросоюзе действует EU AI Act — штрафы до 7% оборота за отсутствие маркировки. В США — уголовная ответственность за дипфейки в предвыборный период. Россия готовит поправки к ГК РФ.
Что делать?
Развивайте цифровую гигиену. Не верьте на слово. Проверяйте источники. Используйте инструменты анализа.
Чем раньше вы научитесь отличать поддельное видео от настоящего, тем сложнее будет вас обмануть. Даже с помощью самых современных нейросетей.































