Штучний інтелект: виклики і сподівання для фактчекінгу

Штучний інтелект на службі у фактчекінгу – наскільки реальним є це твердження і наскільки близьке таке майбутнє? Штучний інтелект (ШІ) сьогодні вміє багато що. Та чи можна його навчити відокремлювати правду від брехні, розпізнавати фейкові твердження і фейковий новини?

Штучний інтелект, нейронні мережі і машинне навчання – технології, про які сьогодні говорять майже  усі. Щодня з’являються новини про те, що штучний інтелект навчився розпізнавати обличчя, розуміти команди, спілкуватися з іншим штучним інтелектом і таке інше. Вчені розбудовують нейронні мережі і розробляють алгоритми для машинного навчання, щоб змусити інтелект розуміти ще більше, робити висновки і ухвалювати рішення. ШІ у роботі своїх інструментів фактчекінгу пообіцяв використовувати Facebook, а The New York Times готується застосувати штучний інтелект для модерації коментарів. Однак поки не варто сподіватися, що ШІ зможе автоматизувати завдання фактчекінгу.

Fake News Challenge: штучний інтелект поки не настільки розумний

У червні цього року група вчених, журналістів і експертів ініціювали конкурс Fake News Challenge , глобальною метою якого було вивчення можливостей боротьби технології штучного інтелекту з фейковими новинами. Організатори та учасники конкурсу намагалися напрацювати рішення, що могли б стати основою для створення програм з перевірки фактів штучним інтелектом. Коментуючи результати конкурсу, один з організаторів Деліп Рао (Delip Rao)  заявив таке : «Сьогодні більшу частину роботи з перевірки фактів і відстеження фейкових новин доводиться робити вручну, і ми сподіваємося, що це можна буде змінити».

«У той же час, на нинішньому етапі інструменти перевірки фейків, якими послуговуються ШІ та нейронні мережі, можуть бути тільки помічниками в роботі людей, але поки не можуть стати повноцінними автономними інструментами», – зробили висновки на основі результатів конкурсу журналісти видання Wired .

 

Штучний інтелект: темний лицар фактчекінгу

Коли ми говоримо про те, як штучний інтелект може використовуватися для перевірки фейкового контенту, не слід забувати і про зворотний бік медалі. Адже алгоритми, якими керується штучний інтелект, можуть моделювати різну діяльність людини, не завжди корисну і благородну.

Кілька тижнів тому засновник Tesla Ілон Маск (Elon Musk) назвав штучний інтелект найбільшою загрозою для майбутнього людства. У своїй заяві підприємець та інноватор назвав ШІ «фундаментальної загрозою існуванню людства». Зокрема, він зазначив наступне: «Роботи можуть розпочати війну, оприлюднюючи фейкові новини,  підробляючи екаунти електронної пошти та маніпулюючи інформацією. Перо сильніше за меч ».

Це твердження Ілона Маска звучить досить загрозливо, а для людей, не особливо близьких до  технологічних новин, ще й нереалістично. Проте вже існують розробки, що підтверджують побоювання глави Tesla.

 

Фейкові відгуки від штучного інтелекту

Вчені з університету Чикаго продемонстрували , як штучний інтелект може сам писати фейкові огляди та відгуки на товари, фільми, книги, ресторани і готелі. Вони назвали своє відкриття однією з головних небезпек для сучасних контент-проектів, новинних агрегаторів та інтернет-магазинів а також, вочевидь, людей, які, ґрунтуючись на відгуках, обирають той чи інший товар або послугу.

Найбільша небезпека полягає в тому, що створені таким чином відгуки неможливо відрізнити від написаних людьми. А це означає, що фейки можуть впливати на людей, на їхнє рішення щодо покупки, на їхню думку про той чи інший бізнес. До алгоритмів, якими керує цей ШІ, не потрібно вносити серйозних змін, аби  перетворити його на інструмент створення фейкових відгуків, наприклад, про політиків. А це – набагато страшніший інструмент маніпуляції, порівняно з яким фейкові новини, що стали предметом розслідувань під час президентської кампанії 2016 року у США, видадуться дитячими

 

Фейкові відеоролики: як Обама говорить не те, що говорить

<iframe width=’640′ height=’480′ frameborder=’0′ allowfullscreen src=’//player.ooyala.com/static/v4/stable/4.14.8/skin-plugin/iframe.html?ec=Nxd3Z2YjE6QQRlQDXX38EB4TzX_XKfYY&pbid=ZTIxYmJjZDM2NWYzZDViZGRiOWJjYzc5&pcode=RvbGU6Z74XE_a3bj4QwRGByhq9h2′></iframe>

Вчені з університету Вашингтона створили нову технологію, яка дозволяє накласти аудіодоріжку на відеозображення і перетворити аудіо на рух губ людини на відео .

Щоб продемонструвати, як працює ця технологія, вчені наклали аудіо на зображення екс-президента США Барака Обами. Щоправда, автори розробки заявили, що допоки не можна взяти чужий голос і накласти його на зображення.

Однак уже є приклади того, як можна обійти і це обмеження: творці канадського стартапу Lyrebird показали, як штучний інтелект може імітувати будь-який людський голос. При цьому продукт може навіть відтворювати інтонації та емоції. Роботу проекту Lyrebird його автори продемонстрували на голосах Барака Обами, Дональда Трампа і Гілларі Клінтон, буквально вклавши їм до вуст свій текст.

«Ми серйозно ставимося до потенційних проблем із застосуванням нашої технології, – сказав Джо Сателіт (Joe Sotelo), один із засновників Lyrebird у коментарі виданню Gizmodo . – «Оскільки ця технологія може бути використана зі зловмисною метою, ми вважаємо за правильне зробити її загальнодоступною і загальновідомою, щоб ми перестали покладатися на аудіозапис як доказ».

Ще один приклад технології, що дозволяє створювати справді фейкове відео, продемонстрували    автори розробки GAN – генеративної нейромережі (generative adversarial network). Такі нейромережі аналізують характеристики відеоролика, а потім відтворюють цей ролик в іншому контексті.

 

Більше того, вони здатні буквально вкласти до вуст людини на відео будь-який текст. У відеоролику-прикладі, що демонструє всю потужність GAN, співачка Франсуаз Арді (Françoise Hardy) у 20-річному віці (тобто більш ніж 50 років тому) говорить точнісінько так само, як радник президента Трампа Келліенн Конвей (Kellyanne Conway).

Цей приклад показує, що розробки на основі GAN можуть зробити технології фейковий новин настільки потужними, що розпізнати їх буде вельми і вельми складно.

Експерти переконані, що в найближчі декілька років YouTube буде забитий фейковими відеороликами, а загалом штучний інтелект змусить всіх нас заново вчитися довіряти тому, що ми бачимо, чуємо і читаємо.

Майбутнє фактчекінгу: ШІ проти ШІ

Поки вміння «темної» сторони штучного інтелекту спрямовані на те, щоб автоматизувати брехню, спростити її створення фактично до кількох кліків мишкою. У той же час, поступово почали з’являтися й інструменти для розпізнавання фейків, що працюють на основі штучного інтелекту .

Яка сторона переможе, хто буде більш успішним в цій задачі – наразі оцінювати складно. Однак з певністю можна сказати, що в майбутньому ШІ може виявитися і на стороні добра, і на стороні зла або ж боротися за правду сам з собою.

Автор: Надія Баловсяк, для  Stopfake.org .