Американские ученые изобрели программу, названную СМИ генератором фейков

Американские ученые изобрели программу, названную СМИ генератором фейков
  • 18.07.17
  • 0
  • 8727
  • фон:

Ученые из Университета Вашингтона создали технологию, которая позволяет накладывать аудиозапись на любой видеоролик с участием человека, синхронизировав движение его губ со звуком.

С точки зрения ряда СМИ, эта технология позволит создавать видео, в которых спикер будет говорить слова, которые он на самом деле не произносил, и отличить "подделку" от "реальности" будет практически невозможно.

Детали своей работы исследователи представят второго августа на конференции SIGGRAPH-2017 в Лос-Анджелесе.

Уже сейчас всем желающим доступен ролик с демонстрацией этой технологии, героем которого стал Барак Обама.

Ученые использовали запись его речи и, проанализировав различные фрагменты его старых выступлений, сделали собственное видео, в котором он говорит те же слова, но не в той ситуации, в которой они на самом деле были произнесены. Губы бывшего президента двигаются так, словно он действительно дважды слово в слово повторил свою речь.

Кроме того, исследователям удалось создать четыре различных ролика, в которых Обама произносит одну и ту же речь. Синхронизация движения губ с произнесенными словами соблюдена в каждом.

Также ученые "вставили" в первоначально сгенерированное ими видео звук из его выступлений различных лет, не меняя ничего, кроме этих движений.

В будущем эту технологию собираются применить в ряде сфер: от виртуальной реальности и голливудских спецэффектов до видеоконференций.

Однако многие СМИ бьют тревогу из-за того, что разработка Университета Вашингтона облегчит работу создателям фейков в сети.

"Благодаря этому инструменту любые фейковые новости будут казаться настоящими", — пишет Mashable. Журналист издания "с грустью" отмечает, что из-за такого рода инструментов по обработке видео проблема недостоверной информации продолжит усугубляться.

Журналист The Atlantic утверждает, что благодаря этой технологии "поверить своим глазам" будет уже невозможно.

"После появления таких технических приемов будет трудно отличить видеоролики с реальными людьми от созданных на компьютере самозванцев, которых можно будет запрограммировать на то, чтобы они сказали все что угодно", — пишет издание.

Один из исследователей, профессор Ира Кемелмахер-Шильцерман в интервью CNN назвала одну из причин публикации итогов их работы: показать людям, что видео так же легко подделать, как фото, звук и текст.

"Поэтому все мы должны сообща двигаться к понимаю этого и к созданию правил и алгоритмов, которые помогли бы выявлять отредактированную информацию", — пояснила она.

Источник