Рассказывая о том, как проверять информацию и идентифицировать фейки, редакция проекта StopFake много внимания уделяла работе с видео. Мы писали о том, как проверять видео в YouTube , на наших страницах также можно найти расширенное руководство по верификации видео. Мы рассказывали о способах поиска нужных видеороликов в Сети и о специальных плагинах, которые помогают решить эту задачу. Однако развитие технологий создания фейков заставляет нас вновь вернуться к этой теме. Сегодня мы расскажем о новом явлении, последствия распространения которого сложно оценить на сегодняшний день. На технологию DeepFake уже обратили внимание не только журналисты ведущих американских изданий, но и ИТ-аналитики, которые буквально забили тревогу, называя эту технологию одним из наиболее опасных изобретений последних лет. Опасность этой технологии озвучили и несколько американских сенаторов, назвав ее угрозой национальной безопасности США.  

Что такое DeepFake и когда появилась эта технология

Название DeepFake представляет собой комбинацию двух терминов – «Deep» («глубокий») и «Fake» («подделка»). В этом названии первая часть – это сокращение термина «Deep Learning» — «глубокое обучение». Хотя интересно, что одну из первых появившихся в Сети реализаций технологии DeepFake – поддельного видеоролика – еще в 2017 году разместил пользователь популярного в США социального сервиса Reddit с ником Deepfakes. Это были видео для взрослых, в которых лица актеров были заменены лицами известных людей.

Первой жертвой технологии DeepFake стала актриса Галь Гадот, чье фото тот самый пользователь Reddit добавил в порноролик. Этот факт вызвал очень активное обсуждение среди пользователей Reddit, тем не менее, видео сравнительно быстро было удалено со страниц сервиса. Позже жертвами этой технологии стали и другие актрисы, среди которых Скарлетт Йоханссон, Тейлор Свифт, Эмма Уотсон и Кэти Перри.

Второй «всплеск популярности» DeepFake пережила, когда появилось видео с президентом США Бараком Обамой.

Еще один пример реализации DeepFake – фейковое интервью Дональда Трампа самому себе:

 

GAN или как конкуренция нейросетей помогает создавать идеальный фейк

Технология DeepFake представляет собой способ синтеза человеческого образа с использованием искусственного интеллекта. При создании DeepFake-роликов одни изображения или видео накладываются на другие видео. Для такого наложения используется  методика машинного обучения под названием GAN – генеративно-состязательная нейросеть (generative adversarial network), которую мы уже упоминали в наших материалах.

GAN – это алгоритм, который использует комбинацию работы двух нейросетей. Первая генерирует (создает) образцы, вторая отличает настоящие образцы от поддельных. Работу алгоритма GAN можно сравнить с работой двух людей. Первый занимается подделкой, например, денежных купюр или картин, а второй пытается отличить эти подделки от оригиналов. Если первый алгоритм предложит очевидную подделку, второй ее сразу определит, после чего первый улучшит свою работу, предложив более реалистичную подделку. В результате такой совместной работы двух нейросетей может получиться довольно неплохая подделка, ибо вторая нейросеть отбракует очевидные фейки, предложенные первой и позволит использовать только те, которые максимально приближены к оригиналу.

Для создания подделки и первой, и второй нейросети нужно много примеров фотографий человека – в разных ракурсах, позах и с разной мимикой. После анализа таких изображений GAN-алгоритм начинает генерировать поддельные фотографии. А позже DeepFake-инструменты помогут добавить такие фотографии в видеоролик.

Например, получив тысячи фотографий Дональда Трампа, в результате работы GAN-алгоритма можно смоделировать его весьма реалистичную мимику и артикуляцию, как если бы он говорил определенный текст.

 

Алгоритмы GAN используются многими компаниями и научными учреждениями, например, ядерщики применяют их для прогнозирования поведения частиц, а врачи для улучшения качества изображений. Интересно, что компания Google еще пять лет назад представила TensorFlow  – общедоступный набор программных инструментов, которые помогают в обучении генеративно-состязательных нейросетей и которые, соответственно, используются для реализации DeepFake-видео.

Кроме визуального синтезирования, генеративно-состязательные нейросети уже умеют работать и с голосом. Например, такие стартапы как Lyrebird и iSpeech  умеют создавать звуковые сэмплы на основе голосов людей. Иными словами, такие стартапы могут получить запись голоса, проанализировать ее и создать максимально-реальную его копию, но уже для озвучивания других фраз.

FakeApp: DeepFake для широких масс

Таким образом, чтобы создать DeepFake-видео, нужно получить большое количество разных снимков жертвы, проанализировать их с помощью GAN-алгоритмов, а потом с помощью специального ПО наложить эти лица на видеоролик. Дополнительно можно добавить к видео и текст, который будет «озвучивать» жертва – человек на видео.

Главная опасность DeepFake-технологии состоит в том, что инструменты, которые позволяют сделать все вышеописанное, стали доступны обычным людям. Для работы таких приложений нужны мощные компьютеры, но и это сегодня, в эпоху мощных серверов для майнинга криптовалют, установленных в обычных квартирах, не является проблемой.

Главным инструментом для создания DeepFake-видео является приложение FakeApp. Несмотря на блокировку оригинального сайта приложения http://www.fakeapp.org/ и различных упоминаний и обсуждений его использования, в Сети еще сохранились сайты-зеркала , а на Reddit есть раздел со ссылками на скачивание FakeApp со страниц файловых хостингов Google Drive и анонімного Mega, а также с инструкциями по его применению.

Вот несколько примеров использования FakeApp с Бараком Обамой

 

И весьма грубая подделка с Марком Цукербергом

Журналист The New York Times Кевин Роуз (Kevin Roose) протестировал  работу FakeApp и описал свой опыт. Для создания видео ему пришлось использовать удаленный сервер, арендованный через Google Cloud Platform, который обеспечил достаточную вычислительную мощность. Но даже и в этом случае удаленный сервер генерировал модели более 8 часов. Аренда сервера обошлась в $85,96. На обычном ноутбуке для такой задачи могут понадобиться дни или даже недели. В эксперименте для первого DeepFake-ролика использовались более 400 фото автора статьи и более тысячи снимков его двойника (актера Райана Гослинга). Хотя видео вышло весьма размытым

Во втором случае использовали почти 2 тыс фото журналиста и более тысячи фото жертвы

Эксперимент журналиста был интересен еще и тем, что и его участник – пользователь Reddit, и разработчик FakeApp, прокомментировавший работу приложения, так и остались анонимными – они не назвали свои настоящие имена и общались с помощью ников и обезличенных адресов электронной почты.

DeepFake – слишком опасные фейки нового поколения

Мы вплотную приблизились к жизни в мире, в котором фейк и правда становятся практически неотличимы друг от друга. DeepFake делают фейки настолько реалистичными, что наши слух и зрение не будут способны отличить ложь от правды.

Опасность DeepFake – это не только политическая пропаганда и конкурентная борьба высшего уровня цинизма, в которой можно заставить соперника говорить откровенную ложь, в которую большинство поверит. DeepFake – это еще и весьма опасный инструмент манипулирования общественным мнением, с помощью которого можно легко посеять панику и страх. Политик, объявляющий о ядерном ударе или глава полиции, заявляющий о распылении отравляющего газа – все это реалистичные сценарии, которые можно смоделировать с помощью DeepFake.  

Порноместь с помощью DeepFake может стать обыденным явлением, а скорость распространения таких видеороликов в социальных сетях может стать буквально мгновенной.

Тем не менее, на данный момент уже есть некоторые техники, позволяющие определить DeepFake, а в последнее время появились и инструменты для их идентификации.

В одном из следующих материалов мы расскажем о том, как можно идентифицировать видео, созданные на основе DeepFake, а также о новых инструментах определения DeepFake-видео.

Автор: Надежда Баловсяк, для  Stopfake.org.