427

Нейронные сети научились удалять людей с видео

Пару лет назад довольно активно обсуждалась тема deep fake. Технологии, позволяющей заменять лица одних людей на видео другими. Но в том время технология была сырая, даже невооружённым взглядом можно было заметить неестественность изображения. Плавающие контуры лица, искажения пропорций, неестественная мимика и многое другое. Некоторым людям доводилось сделать довольно реалистичные deep fake на небольших отрезках видео, но в какой то момент всё равно вылезала неестественность.

Нейронные сети научились удалять людей с видео Искусственный интеллект, Технологии, Наука, Машинное обучение, Нейронные сети, Deep learning, Deepfake, Видео, Длиннопост

Никаких резких скачков в этой области долгое время не было, поэтому разговоры понемногу сошли на нет. Но данное направление никто не забрасывал и различные группы исследователей и инженеров продолжали работу в этом направлении. И вот в этом году группа исследователей из Оксфорда, Института Вейцмана и Google Research представили систему ансамбля нейронных сетей, способных определять на видео не просто контуры отдельных объектов, но и последствия любых контактов этих объектов с окружающим миром. Поднятую пыль, тени, задетые объекты, даже поднятую рябь на воде. И этот ансамбль нейросетей способен не только всё это определять, но и удалять с видео. Ниже прикрепляю оригинальное видео, представленное авторами разработки.

Поскольку оригинальное видео полностью на английском и в нём описываются лишь базовые особенности работы нейросетей, я также записал видео на русском. В нём я подробнее и простым языком постарался разобрать как саму разработку, так и те принципы, по которым работают нейросети, входящие в ансамбль.

При этом стоит заметить, что данная нейросеть работает абсолютно автономно. И обрабатывать различные видео она способна в "промышленных" масштабах. Есть у неё конечно и ряд ограничений, так что не стоит бояться, что уже завтра можно будет удалить кого угодно с любого видео.

С другой стороны, от появления сетей, которые могли очень криво заменять лица людей, до появления систем, способных практически бесследно удалить любой движущийся объект с видео прошло всего пару лет. И кто знает, чему научатся сети ещё лет через 5-10.

Наука | Научпоп

9.1K постов82.4K подписчиков

Правила сообщества

Основные условия публикации

- Посты должны иметь отношение к науке, актуальным открытиям или жизни научного сообщества и содержать ссылки на авторитетный источник.

- Посты должны по возможности избегать кликбейта и броских фраз, вводящих в заблуждение.

- Научные статьи должны сопровождаться описанием исследования, доступным на популярном уровне. Слишком профессиональный материал может быть отклонён.

- Видеоматериалы должны иметь описание.

- Названия должны отражать суть исследования.

- Если пост содержит материал, оригинал которого написан или снят на иностранном языке, русская версия должна содержать все основные положения.


- Посты-ответы также должны самостоятельно (без привязки к оригинальному посту) удовлетворять всем вышеперечисленным условиям.

Не принимаются к публикации

- Точные или урезанные копии журнальных и газетных статей. Посты о последних достижениях науки должны содержать ваш разъясняющий комментарий или представлять обзоры нескольких статей.

- Юмористические посты, представляющие также точные и урезанные копии из популярных источников, цитаты сборников. Научный юмор приветствуется, но должен публиковаться большими порциями, а не набивать рейтинг единичными цитатами огромного сборника.

- Посты с вопросами околонаучного, но базового уровня, просьбы о помощи в решении задач и проведении исследований отправляются в общую ленту. По возможности модерация сообщества даст свой ответ.


Наказывается баном

- Оскорбления, выраженные лично пользователю или категории пользователей.

- Попытки использовать сообщество для рекламы.

- Фальсификация фактов.

- Многократные попытки публикации материалов, не удовлетворяющих правилам.

- Троллинг, флейм.

- Нарушение правил сайта в целом.


Окончательное решение по соответствию поста или комментария правилам принимается модерацией сообщества. Просьбы о разбане и жалобы на модерацию принимает администратор сообщества. Жалобы на администратора принимает @SupportComunity и общество Пикабу.

Вы смотрите срез комментариев. Показать все
63
Автор поста оценил этот комментарий

Мы доживаем последние дни, когда видеофиксация может помочь в раскрытии преступлений.

раскрыть ветку (37)
27
Автор поста оценил этот комментарий

Вы недооцениваете степень "тормознутости" общества, и государства в частности.

Видеофиксация приживалась в судебно-исполнительной области очень долго, со скрипом, с муками можно сказать.

Прижилась. Используется, и очень активно (вещь удобная)


Теперь, с появлением в массах программ с алгоритмами, как из ролика, а лучше что-бы одновременно добавлять лица качественно могла "поверх" других... О да.

Будет та еще вакханалия всяких всратых подстав, стираний с видео преступников, или замена у них лиц например на неугодных, или еще как (вариантов множество)


И снова "органы" и система будут реагировать на это со скрипом, медленно меняясь.

А поначалу и вовсе не будет реагировать, вообще никак.

Даже если 10 свидетелей будут говорить, что это подделка, а им в ответ - у нас есть видео))

раскрыть ветку (10)
21
Автор поста оценил этот комментарий
Пока всегда можно определить редактировалась ли видеозапись нейросеткой по характерным артефактам и искажённым распределением контрастов по масштабам. Да и нейросетки способные найти редактору так-же разрабатываются. Конечно можно представить, что нейросеть когда нить научится генерировать полностью правдоподобное изображерие, но это выглядит маловероятным.
раскрыть ветку (8)
7
Автор поста оценил этот комментарий

Кстати да, сетки умеющие распознавать работу других сетей уже есть) В ближайшие недели постараюсь до них добраться и тоже одну из последних работ разобрать)

раскрыть ветку (3)
0
Автор поста оценил этот комментарий
Ну да, да. То-то Майкрософт с Гуглом утвердили премию на сервис распознающий deepface
раскрыть ветку (2)
7
Автор поста оценил этот комментарий

Это классическая война щита и меча. Будут появляться более совершенные алгоритмы подмены, а для них будут пытаться разработать более совершенные алгоритмы нахождения подмены.

К примеру, вот обзорная статья этого года по текущему состоянию этого вопроса - https://www.scirp.org/journal/paperinformation.aspx?paperid=...

1
Автор поста оценил этот комментарий

Давно не следил за состоянием дипфейков, но относительно недавно видел

https://www.google.com/amp/s/pikabu.ru/story/nayden_sposob_uverenno_raspoznavat_dipfeyki_7879529?view=amp

Не проверял, но звучало прикольно.

3
Автор поста оценил этот комментарий

Можно еще сделать все на записи и монтаж в 4к

А потом "пережать" с артефактами на более низкое разрешение, алля "старая вебкамера".

Таким образом замаскировав огрехи работы нейросети.


Да и это сейчас видно, как работает.

Причем некоторые из последних алгоритмов уже далеко не так просто определить. Уж точно не по нескольким сек. видео.

раскрыть ветку (3)
8
Автор поста оценил этот комментарий
Глазами не определить, спектральным и масштабным анализом изи.
1
Автор поста оценил этот комментарий
А потом нейросетью обратно пережать в 4к xD
раскрыть ветку (1)
0
Автор поста оценил этот комментарий

Кстати да, и уже не придраться)

4
DELETED
Автор поста оценил этот комментарий
Можно изи чекнуть на вмешательство и дипфейк.

Такие вмешательства чисто визуально выглядят "бомба-ракета", а по факту если изо разложить в спектр или просто прогнать по алгоритмам - увидишь неестественные артефакты, по которым можно понять что изображение редактировалось
14
Автор поста оценил этот комментарий

Я не эксперт в нейросетях и блокчейне, но мне пришла такая идея:

1. При записи видео вместе с файлом сохраняется хэш-сумма от этого файла.


2. Сразу по сохранению файла (по факту съемки) создается хэш-сумма этого файла с метаданными (но можно и без них, если нам нужна только доказанная временная метка)


3. Хэш этого файла отправляется в общедоступный и надежный блокчейн сразу после съемки видео. Можно даже те же криптовалюты использовать, если они позволяют добавлять данные к транзакциям.


Таким образом мы получаем доказательство что конкретный видео-файл был сделан не позже записи в блокчейне, проверяемое кем угодно, при предъявлении оригинального видео-файла.
При этом нельзя будет произвести никакие манипуляции с файлом (нельзя перекодировать, вырезать часть или изменить что-либо) - тогда хэш-сумма тоже изменится, а она уже записана в блокчейне, изменить её никто не может, только если весь блокчейн поменять (что невозможно, если мы говорим о блокчейнах, на которых работают криптовалюты).

Этого может быть недостаточно, ведь так можно сделать и фейк, подтвердив только его дату создания.


Но, во-первых, для спонтанных преступлений этот способ отлично сработает (скажем по такому принципу могут работать камеры видеонаблюдения).


Во-вторых, если мы говорим о проблеме подмены оригинального видео с генерацией нового хэша - наш хэш, удостоверяющий оригинальное видео будет первым, что защищает его от изменений.

В-третьих, даже для фиксации преступлений (например в кейсе слежки) это может быть тоже эффективно.
Скажем в кейсе когда пытаются кого-то подставить с помощью видео фейка. Допустим злоумышленники способны сделать идеальный видео-фейк, который не отличить от настоящего. Но при этом подделать временную метку, получаемую из отправки хэша видео в цепочку блокчейна - не получится.
В итоге злоумышленники будут иметь на руках видео с временной меткой, но при этом без возможности внести в него корректировки. И в большинстве кейсов такое фейковое видео можно будет вывести на чистую воду - сопоставив детали.
Например жертва в этот же момент может снимать свое видео, так же подтверждаемое хэш-суммой в блокчейне. Тут уже будет "слово против слова".

Не говоря уже о том, что пока-что не реально генерировать фейк-видео в режиме реального времени (без постобработки там много артефактов видимых невооруженным глазом, и маленькое разрешение) - скорее всего до выхода квантовых компьютеров в широкий обиход - будет и не реально. Если мы говорим о видео в качестве 4k и выше.

раскрыть ветку (10)
5
Автор поста оценил этот комментарий

Отличная идея!

Понадобятся видео регистраторы с хэщ функцией и доступом к блокчейну.

раскрыть ветку (8)
Автор поста оценил этот комментарий

Специальный видео-регистратор будет удобен, но совершенно не обязателен.

Всё что я описал можно сделать вот прям сейчас, имея камеру (можно смартфон, короче любую цифровую камеру), компьютер, кошелек с криптовалютой и доступ в интернет.
И это даже не займет много времени.

1. Снимаешь видео, в любом формате, сохраняешь видеофайл.
2. Берешь любую софтину, которая может взять хэш-сумму файла.
3. Создаешь хэш-сумму файла
4. Делаешь любую транзакцию со своего кошелька, присоединив к ней эту хэш сумму.

И всё. Вполне доступно даже просто "уверенному пользователю пк".
Способ даже не требует написания какого-либо софта.
При желании можно сделать за день простой скрипт, который автоматизирует 2-4 шаги, тем самым они будут занимать пару минут.

раскрыть ветку (7)
2
Автор поста оценил этот комментарий

1. Снимаешь видео, в любом формате, сохраняешь видеофайл.

2. Берешь любую софтину, которая может взять хэш-сумму файла.

3. Создаешь хэш-сумму файла

3a. Убираешь ненужные и\или добавляешь нужные обьекты на видео с помощью нейросетей

3б. Создаешь хэш-сумму редактированного файла

4. Делаешь любую транзакцию со своего кошелька, присоединив к ней первую хэш сумму.

4а. Делаешь любую транзакцию со своего кошелька, присоединив к ней вторую хэш сумму.


Итог : ты имеешь две версии видео, обе защищены хэшем в блокчейне.

Предъявляешь судье ту , которая тебе больше нравится в конкретный момент времени.

Судья спрашивает "А у вас точно нет другой версии видео защищенного блокчейном?".

Ты говоришь честно "Нет, ваша честь, точно нет. Правда. Зуб даю. Мамом клянуся."

Судья говорит "Верю" или "Не верю" в зависимости от глубины честности в твоих глозах.

раскрыть ветку (6)
Автор поста оценил этот комментарий

Во-первых как минимум видео-фейк оригинального файла уже никто, кроме создателя, сделать не сможет.

Во-вторых, в каких кейсах ваш алгоритм может использоваться? Кроме кейса изначально продуманного создания фальсификации?

От создания фальсификаций такого рода желающие вполне легко защитятся записью своего видео по той же схеме. Скажем, путем постоянного ношения видео-регистратора, с сохранением видео каждые N-часов.
Затратно (в плане необходимости хранить эти видео-файлы), но вполне реально.

В этом случае будет "видео против видео", да. Только вот у злоумышленика будет проблема - чтобы попасть в разумное временное окно - придется сценарий постановы придумывать либо заранее, либо по ходу.
Посидеть подумать, а потом смонтировать - не получится, временную метку не подделаешь.

Это при большом допущении, что злоумышленнику будут доступна нейросеть и вычислительные мощности, которые сгенерируют ему идеальное, не отличимое технически от настоящего, видео в реальном времени.

И все равно твое короткое фейк-видео будет легко вывести на чистую воду через поиск несостыковок.

Жертва может и сутки своей жизни записать одним файлом. А злодей сможет записать правдоподобный фейк длинной в сутки? едва ли )

При этом суточный файл  ''жертвы" можно будет верифицировать показаниями свидетелей, камер видео наблюдения, ситуативно.
Например, в 12.30 жертва пошла выпить кофе. Что зафиксировано оплатой по карте, камерой в кофейне, свидетельскими показаниями бариста. Это доказывает подлинность видео жертвы.

Злодей же наоборот не сможет нагенерить достаточно доказательств да и продумать длинное непрерывное видео съемки жертвы, которое не будет иметь несостыковок с реальностью - тоже не реально.

раскрыть ветку (5)
1
Автор поста оценил этот комментарий

Непредвзятый судья не знает заранее кто перед ним "жертва" или "мошейник".

Мошейники могут заранее смонтировать видео с жертвой и защитить его блокчейном раньше , чем жертва защитит своё видео.

И потом судье скажут "Жертва подделала видео и загрузила ,представленную ею версию позже. Вот оригинальное видео с более ранней временной меткой."


Вероятность правильного определения настоящее это видео или нет, сильно зависит от

1. Представленного видео как такового

2. Качества видео

3. Качества монтажа

4. Квалификации привлеченного эксперта

5. Степени заинтересованности привлеченного эксперта

6. Настроения привлеченного эксперта

7. Степени технической оснащённости привлеченного  эксперта

8. Времени, выделенного на экспертизу

9. Случая

раскрыть ветку (4)
0
Автор поста оценил этот комментарий

Это всё подходит только для весьма небольшой части кейсов, где видео-доказательство может использоваться.
Т.к. подразумевает, что мошенник заранее делает видео, зная кто на этом видео должен находится и что происходить.
И то на тоненького - слишком много деталей, которые нужно предугадать.

Например самый распространенный кейс где видео доказательства используются - автомобильные видеорегистраторы.
Тут виновник аварии не сможет заранее сгенерить видео - даже если попытается, он же не знает с кем столкнется.

Или, скажем, взяточник. Даже если он попытается сделать обеляющее себя видео заранее - как он угадает в какой одежде придет взяткодатель?


Вероятность правильного определения настоящее это видео или нет, сильно зависит от

1. Представленного видео как такового

2. Качества видео

3. Качества монтажа

4. Квалификации привлеченного эксперта

5. Степени заинтересованности привлеченного эксперта

6. Настроения привлеченного эксперта

7. Степени технической оснащённости привлеченного эксперта

8. Времени, выделенного на экспертизу

9. Случая


Всё это никак не влияет на верификацию времени создания видео, описанную выше, технически.

Юридически - такой способ доказательства времени создания видео не сразу может в юридическую практику войти.
Так же как не сразу была принята идентификация по отпечаткам пальцев.

Но рано или поздно подобные способы применения блокчейна станут частью культуры.

Так же как письменность (как передача информации, как создание договоров/законов/контрактов/расписок) в начале была уделом небольшого числа избранных (грамотных).
Так и сейчас - для большинства блокчейн это "магия, которую понимают в основном программисты и сильно интересующиеся". Но по своей сути, в основе блокчейна лежат достаточно простые, просто не привычные обывателю, концепты.
Так же как большинство со временем стало на базовом уровне уметь пользоваться письменностью - так же через некоторое время большинство освоит и практические применения блокчейна. С учетом того, на сколько быстро сейчас появляются и осваиваются новые технологии - это вопрос максимум поколения, скорее даже быстрее - лет 10-15, для развитых стран, кмк.

Самостоятельно понять как работает блокчейн и верифицировать что-то, подписанное таким образом - уже сейчас доступно образованному большинству, было бы желание. Тут не нужна какая-то специальная экспертиза или обучение, хватит и 11 классов современного школьного образования, чтобы разобраться.
раскрыть ветку (3)
0
Автор поста оценил этот комментарий

"Например самый распространенный кейс где видео доказательства используются - автомобильные видеорегистраторы.

Тут виновник аварии не сможет заранее сгенерить видео - даже если попытается, он же не знает с кем столкнется."


Смотрим фильм "Спец" снятый реальным бандитом-автоподставщиком

https://www.youtube.com/watch?v=2JDgB5wRGsw&t=1s

и с удивлением обнаруживаем , что виновники аварии таки могут знать заранее с кем столкнуться.

Добавляем сюда современных видео технологий и блокчейна, и становится реально страшно.


Ибо на стороне жертвы будет только видео с регистратора, а на стороне жуликов , заранее заготовленное видео с на пару секунд более ранним временем хеша в блокчейне, и "случайные" свидетели.


"Или, скажем, взяточник. Даже если он попытается сделать обеляющее себя видео заранее - как он угадает в какой одежде придет взяткодатель?"

Ему не нужно будет это знать. Он просто скажет , что представленное видео фэйк, потому что на видео он в одной одежде, а его арестовали в другой одежде.

Ну не мог же он за долю секунды переодется?

Правда же ж?

А видео внизу - это фоташоп.

https://www.youtube.com/watch?v=50EE13kTaWI



"Всё это никак не влияет на верификацию времени создания видео, описанную выше, технически."

Это абсолютно однозначно влияет на подтверждение времени создания видео, принимаемым судом как верное.

Судья не может сам по себе знать, когда было создано видео.

Поэтому время его создания будет подтверждаться экспертами.

раскрыть ветку (2)
0
Автор поста оценил этот комментарий

Пфффф... "Подержите моё пиво" - облачный видеорегистратор, прошитый на прокси плюс маломощная глушилка для жертвы. Это в качестве шутки )))
А так, единственное, что можно хоть с какой-то уверенностью использовать - это секьюрное хранилище с PGP подписью от конкретного кодера внутри камеры. То есть когда сам чип захвата передаёт уже подписанный поток, который публичной подписью верифицируется, а значит и подделать его уже сильно не просто. А секьюрное хранилище - это чтобы нельзя было поправить на нём, а только удалить и записать новое. Это минимально верифицируемая штука, так как всё зашито сильно низкоуровнево.

раскрыть ветку (1)
0
Автор поста оценил этот комментарий

Да, именно такое устройство нужно.

0
Автор поста оценил этот комментарий

В целом идея неплохая, но предположение о том, что не получится генерировать фейк в режиме реального времени без видимых артефактов несколько неверное) Собственно, приведённая в посте сеть работает в режиме реального времени. Очень много ресурсов потребуется для обучения нейросети, но после обучения большинство нейросетей это максимально простые модели построенные на сумматорах. И работают они очень быстро, особенно на видеокартах.

2
Автор поста оценил этот комментарий

Вообще-то раскрытию тут ничего не грозит. Могут быть проблемы с использованием видеофиксации в качестве доказательной базы, но и то во многих случаях сам источник можно считать доверенным.

раскрыть ветку (2)
0
Автор поста оценил этот комментарий

Ну при условии , что преступление может быть раскрыто, но не доказано- тогда да, не влияет.

А если раскрытым считать только доказанное преступление, то влияет.

раскрыть ветку (1)
0
Автор поста оценил этот комментарий

При нормальном судопроизводстве вообще достаточно большое число преступлений оказываются недоказанными. Это нормально.

Во многих странах и сейчас видеозаписи, сделанные частными лицами, судом не принимаются как доказательства.

1
Автор поста оценил этот комментарий
И о чем думают все эти учёные инженеры программисты? Это точно будет использоваться во зло
раскрыть ветку (3)
10
DELETED
Автор поста оценил этот комментарий

Спроси у создателя атомной бомбы.

раскрыть ветку (2)
9
Автор поста оценил этот комментарий

Всего 2 боевых применение за всю историю + отсутствие глобальных войн из-за угрозы взаимного уничтожения.


Плохо что ли?

раскрыть ветку (1)
4
Автор поста оценил этот комментарий

Хорошо!

0
Автор поста оценил этот комментарий
0
Автор поста оценил этот комментарий

Да, последние, но не только из-за качества работы алгоритмов редактирования. Распознать их то можно почти всегда - они хорошо работают только когда фон статичен. А когда нет информации, как меняется фон, когда он закрыт, нейросети приходится генерировать меняющийся фон, а с этим большие проблемы. Нужны все источники света, точные модели всех объектов на видео. Воды там, листьев, одежды других людей на фоне. Ну ладно, теоретически сделать можно. Дорого, не скоро, но можно. В конце концов у анализирующего на фейк тоже нет исходного фона, чтобы сравнить.


Решается защитой видеозаписи хэшем, который в облако с историей доступа, блокчейн какой-нибудь пишется, либо в область только для чтения регистратора сохраняется.


Почему я согласился с тем, что последние. Берётся, публикуется хороший фейк, и всё, решение будет определяться разогнанным общественным мнением, а не заключением эксперта, который а) скорее всего скажет "скорее всего", чтобы защитить себя б) чтобы понять его доказательство нужно быть экспертом, другим "спектральная составляющая 6 мерной (3 цвета, 2 координаты, время) функции камбербака выше предела кобербетча, поэтому можно утверждать, что" не говорят вообще ничего. Противоположная сторона приглашает своего эксперта, который теми же нечёткими терминами утверждает обратное. Х лет назад гугл взломали, хэши неуникальны, поэтому данные сомнения трактуются в пользу обвиняемого.

0
DELETED
Автор поста оценил этот комментарий

Это нет, а вот для вбросов сгодится.

0
Автор поста оценил этот комментарий
С чего ты решил, что через пару лет не появится нейросеть, которая будет отслеживать факты изменения видео и определять его оригинальность? А может даже восстанавливать изображение? Я вроде видел, что уже есть штука, которая откатывает изменения фото в фотошопе
раскрыть ветку (2)
1
Автор поста оценил этот комментарий
"откатывает изменения фото в фотошопе"
ну, если изменения перезаписали информацию (в один слой), то кажется есть лишь один путь это сделать - повернуть время вспять, максимум это детектировать, что были произведены какие то манипуляции в фш + нейронкой эмулировать "художника" рисующего наиболее вероятный обьект, по типу перерисовки пикселявой цензуры, на четкое изображение, но это будет не откат а вероятностная интерпретация нейронки, имхо
раскрыть ветку (1)
1
Автор поста оценил этот комментарий

Да он про Ctrl-Z

Автор поста оценил этот комментарий

Фотошоп существует уже много лет (30, если быть точным). И до неё обработка фотографий тоже существовала. Тем не менее, почему-то не появилось поддельных фотографий в качестве улик.


А вот вбросы и фейки клепать - это да, это пожалуйста.

раскрыть ветку (1)
1
Автор поста оценил этот комментарий

"почему-то не появилось поддельных фотографий в качестве улик."

Потому что те поддельные фото признали подлинными.

Вы смотрите срез комментариев. Чтобы написать комментарий, перейдите к общему списку