Искусственный интеллект на службе фактчекинга – насколько реально это утверждение и насколько близко такое будущее? Искусственный интеллект сегодня умеет многое. Можно ли его научить отделять правду от лжи, распознавать фейковые утверждения и фейковые новости?

Искусственный интеллект, нейронные сети и машинное обучение – технологии, о которых сегодня говорят буквально все. Каждый день появляются новости о том, что искусственный интеллект научился распознавать лица, понимать команды, общаться с другим искусственным интеллектом и так далее. Ученые строят нейронные сети и пишут алгоритмы для машинного обучения, чтобы заставить интеллект понимать еще больше, делать выводы и принимать решения. ИИ в работе своих инструментов фактчекинга пообещал использовать Facebook, а The New York Times готовится применить искусственный интеллект для модерации  комментариев. Однако пока не стоит надеяться, что ИИ сможет автоматизировать задачу фактчекинга.

 

Fake News Challenge: искусственный интеллект пока не столь умен

В июне этого года группа ученых, журналистов и экспертов инициировали конкурс Fake News Challenge , глобальной целью которого было изучение того, как технологии искусственного интеллекта смогут бороться с фейковыми новостями. Организаторы и участники конкурса пытались наработать  решения, которые могли бы стать основой для создания программ по проверке фактов искусственным интеллектом. Комментируя результаты конкурса, один из организаторов Делип Рао (Delip Rao),  заявил следующее: «Сегодня большую часть работы по проверке фактов и отслеживанию фейковых новостей приходится делать вручную, и мы надеемся, что это можно будет изменить».

«В то же время, на данном этапе инструменты проверки фейков, использующие ИИ и нейронные сети, могут быть только помощниками в работе людей, но пока не могут стать полноценными автономными инструментами», — сделали вывод на основе результатов конкурса журналисты издания Wired .

 

Искусственный интеллект: темный рыцарь фактчекинга

Говоря о том, как искусственный интеллект может использоваться в проверке фейкового контента, не следует забывать и об обратной стороне медали. Ведь алгоритмы, которыми руководствуется искусственный интеллект, могут моделировать различную деятельность человека, не всегда  полезную и благородную.

Несколько недель назад основатель Tesla Илон Маск (Elon Musk) назвал искусственный интеллект самой большой угрозой для будущего человечества. В своем заявлении предприниматель и инноватор назвал ИИ «фундаментальной угрозой существованию человечества». В частности, он сказал следующее: «Роботы могут начать войну, выпуская фейковые новости и подделывая аккаунты электронной почты и манипулируя информацией. Перо сильнее меча».

Утверждение Илона Маска звучит довольно угрожающе, а для людей, не особенно вникающих в технологические новости, нереалистично. Тем не менее, уже есть разработки, подтверждающие опасения главы Tesla.

 

Фейковые отзывы от искусственного интеллекта

Ученые из университета Чикаго продемонстрировали, как искусственный интеллект может сам писать фейковые обзоры и отзывы на товары, фильмы, книги, рестораны и отели. Они назвали свое открытие одной из главных опасностей для современных контент-проектов и новостных агрегаторов, а также для интернет-магазинов и, очевидно, людей, которые основываясь на отзывах, выбирают тот или иной товар или услугу.

Самая большая опасность состоит в том, что созданные таким образом отзывы невозможно отличить от тех, которые написаны людьми. А это означает, что фейки могут влиять на людей, на принятие ими решений о покупке, на их мнение о том или ином бизнесе. В алгоритмы, управляемые этим ИИ, не нужно вносить серьезных изменений, чтобы превратить его в инструмент создания фейковых отзывов, например, о политиках. А это – гораздо более страшный инструмент манипуляции, по сравнению с которым фейковые новости, ставшие предметом расследований во время президентской кампании в США в 2016 году, покажутся детским лепетом.

 

Фейковые видеоролики: как Обама говорит не то, что говорит

<iframe width=’640′ height=’480′ frameborder=’0′ allowfullscreen src=’//player.ooyala.com/static/v4/stable/4.14.8/skin-plugin/iframe.html?ec=Nxd3Z2YjE6QQRlQDXX38EB4TzX_XKfYY&pbid=ZTIxYmJjZDM2NWYzZDViZGRiOWJjYzc5&pcode=RvbGU6Z74XE_a3bj4QwRGByhq9h2′></iframe>

Ученые из университета Вашингтона создали новую технологию, которая позволяет наложить аудиодорожку на видеоизображение и преобразить аудио в движения губ человека на видео.

Чтобы продемонстрировать, как работает их технология, ученые наложили аудио на изображение экс-президента США Барака Обамы. Правда, авторы разработки заявили, что на данный момент пока еще нельзя взять чужой голос и наложить его на изображение.

Однако уже есть примеры того, как можно обойти и это ограничение: создатели канадского стартапа Lyrebird показали, как искусственный интеллект может подражать любому человеческому голосу. При этом продукт может даже имитировать интонации и эмоции. Работу проекта Lyrebird его авторы продемонстрировали на голосах Барака Обамы, Дональда Трампа и Хиллари Клинтон, буквально вложив им в уста свой текст.

«Мы серьезно относимся к потенциальным проблемам с применением нашей технологии, — сказал Джо Сатело (Joe Sotelo), один из основателей Lyrebird в комментарии изданию Gizmodo. – «Поскольку эта технология может быть использована со злонамеренными целями, мы считаем, что правильно будет сделать ее общедоступной и общеизвестной, чтобы мы перестаем полагаться на аудиозапись в качестве доказательства».

Еще один пример технологии, позволяющей создавать настоящее фейковое видео, продемонстрировали   авторы разработки GAN – генеративной нейросети (generative adversarial network). Такие нейросети анализируют характеристики видеоролика, а потом воспроизводят этот ролик в другом контексте.

 

 

Более того, они могут буквально вложить в уста человека на видео любой текст. В видеоролике-примере, демонстрирующем всю мощь GAN, певица Франсуаз Арди  (Françoise Hardy) в 20-летнем возрасте (то есть более 50 лет назад) говорит точно так же, как советник президента Трампа Келлиэнн Конуэй  (Kellyanne Conway).

Этот пример показывает, что разработки на основе GAN могут сделать технологии фейковых новостей настолько мощными, что распознать их будет весьма и весьма сложно.

Эксперты уверены, что в ближайшие несколько лет YouTube будет забит фейковыми видеороликами, а в целом искусственный интеллект заставит всех нас заново учиться доверять тому, что мы видим, слышим и читаем.

Будущее фактчекинга: ИИ против ИИ

Пока умения «темной» стороны искусственного интеллекта направлены на то, чтобы автоматизировать ложь, упростить ее создание буквально до нескольких кликов мышью. В то же время, уже постепенно стали появляться и инструменты для распознавания фейков, работающие на основе искусственного интеллекта.

Какая сторона победит, кто будет более успешен в этой задаче – пока оценивать сложно. Однако очевидно, что в будущем ИИ может оказаться и на стороне добра, и на стороне зла или бороться за правду сам с собой.

Автор: Надежда Баловсяк, для Stopfake.org.