Deepfake: як відеофейки стали серйозною загрозою і об’єднали суспільство

Проблема Deepfake (глибинних фейків) – порівняно нова для інтернету і медіасередовища. Особливо якщо співвідносити її з потоком традиційних фейкових новин, від якого страждає медіапростір вже більше п’яти років. Перші приклади реалізацій Deepfake-відео були опубліковані на сайті Reddit наприкінці 2017 року, в 2018 році у Мережі з’явилися перші відеопідробки з відомими людьми (Барак Обама, голлівудські актори). У кінці 2018 року автори «прогнозу песиміста» з Bloomberg назвали Deepfake-відео однією з проблем, здатною серйозно вплинути на майбутнє, зокрема й на глобальну політичну ситуацію у світі. Докладне пояснення про те, що таке Deepfake і як створюються Deepfake-відео, можна прочитати в нашій першій статті.

У 2019 Deepfake-видео привернули увагу експертів з ІТ-сфери та чи не вперше за історію боротьби із фейками проблему Deepfake почали намагатися активно вирішувати і вчені, і великі технологічні компанії. 

Deepfake настільки вразили всіх – і фахівців із фактчекінгу, і медіаекспетів, і звичайних людей, що серйозність цієї проблеми ніхто не піддавав сумніву. 

У боротьбу з Deepfake взялися інвестувати чималі кошти і за 2019 рік було створено безліч інструментів, які з тим чи іншим успіхом навчилися визначати Deepfake. Такі інструменти – це поки лише тестові зразки, які тим не менш з досить високою ймовірністю знаходять відеопідробки. Сам принцип створення Deepfake є таким, що боротьба з цим видом фейків ускладнена технологією, що використовується для їх створення. Іншими словами, Deepfake – один з найбільш технічно досконалих на сьогоднішній день видів фейків, тому їх пошук і ідентифікація – це складне завдання в технічному плані.

З одного боку, проблема Deepfake-відео посилюється наближенням виборів президента США в 2020 році. Аналітики вважають, що фейкові новини загалом, так само як і фейкові відео зокрема, стануть для соціальних мереж і Facebook серйозною проблемою в 2020 році. Якщо фейки 2016 року були прикладами примітивної маніпуляції і спробою емоційно зіграти на дражливих темах для американського суспільства, то Deepfake зразка 2020 року можуть перетворитися на потоки брехні і компромату, законно рекламованого в соцмережі, тим більше, що політика Facebook щодо політичної реклами буде цьому сприяти (докладніше ми про це розповімо в одній із наших наступних статей). 

Додатковою проблемою, що ускладнює боротьбу з Deepfake, є зміна способів медіаспоживання в сучасному інтернеті. Все більше людей, особливо молоді – представників так званого покоління Z – надають перевагу  відео над текстом. Частка інтересу до Facebook практично зрівнялася з часом, який витрачається на YouTube.

Це означає зростання потенційної аудиторії Deepfake-відео. А в умовах швидкості поширення контенту в сучасних соціальних мережах ця проблема стає більш ніж актуальною для всіх. 

Експерти порівнюють появу Deepfake-відео зі зламами комп’ютерів і комп’ютерних мереж, від яких страждає і бізнес, і уряди останні 15 років. Однак завдяки Deepfake-відео світ стикається з новим аналогом таких зламів, з новим проявом кібервійни – «зламом людей в соціальних мережах, який поширює ідеї», – пояснює проблему Пітер Сінгер, стратег із кібербезпеки. 

Ненсі Пелосі, Facebook і «глибока» проблема «глибинних» фейків

Наприкінці травня на YouTube, а згодом і на Facebook з’явився і з величезною швидкістю поширився відеозапис, на якому спікер Палати представників США Ненсі Пелосі нібито виглядає напідпитку. Кількість переглядів відео наблизилася до 3 млн разів, а кількість репостів перевищила 50 тис (на цей момент пост недоступний). 

Журналісти The Guardian порівняли оригінал і опублікований ролик та дійшли до висновку: це підробка.

Аналіз, який провели журналісти The Washington Post показав, що відео було зумисно сповільнено на 75%. Це призвело до сильного спотворення мови і висоти голосу та створювало враження, ніби Пелосі була п’яна. 

Тим не менш, це не завадило багатьом відомим політикам, зокрема й Дональду Трампу, прокоментувати скандальне відео, а сам Трамп опублікував ще одне відео, де Пелосі теж «затинається».

З YouTube ролик і його копії були видалені. Спочатку адміністрація Facebook відмовилася видаляти відео, пообіцявши розібратися. Через 1,5 доби компанія повідомила, що знижує його пріоритетність видачі, бо його видалення буде цензурою, пізніше при спробі опублікувати відео компанія почала показувати попередження про те, що цей ролик – підробка. 

Сама Ненсі Пелосі назвала Facebook «добровільним співучасником втручання в американські вибори». 

Як видно на цей момент, відео все ж було видалено зі сторінок Facebook, однак той факт, що соціальна мережа так довго реагувала на такий суперечливий контент, навіть за наявності непрямих доказів його підробки, краще ніж що-небудь інше демонструє серйозність проблеми Deepfake-відео та й будь-яких інших підробок в цілому. Можна сказати, що небезпека Deepfake-відео – це проблема звичайних фейків, зведена в ступінь, і все це – завдяки скандальності контенту, помноженій на швидкість його поширення в соцмережі на тлі відсутності реакції з боку адміністрації Facebook.

Історія з Ненсі Пелосі – всього лише один приклад того, чому проблемі Deepfake за останній рік приділяється так багато уваги. У цій статті ми проаналізували, що змінилося і які з’явилися напрацювання, спрямовані на боротьбу з «глибинними» фейками. 

Deepfake статистика: проблема для всіх і кожного

Існує думка, що прямими жертвами фейкових новин є політики, які втрачають виборців. Однак Deepfake – це приклад технології, яка може торкнутися буквально всіх і кожного. Згадаймо, що Deepfake з’явилися як інструмент порнопомсти – додавання зображення звичайної людини до порно-відео. Ситуація не змінилася і сьогодні. За даними дослідників з компанії Deeptrace, більше 95% Deeptrace-підробок – це порно-відео, а героями таких роликів у 99% випадків є жінки.

В цьому ж дослідженні відзначається, що за останні півроку кількість Deepfake-відео подвоїлася в порівнянні з минулим роком і нараховує вже понад 14,5 тис відеороликів. Цікаво, що 2% з них містять корпоративні секрети. І є вже приклади Deepfake-підробок, які успішно застосовувалися для виманювання грошей у компаній, співробітники якої були впевнені, що шлють гроші контрагенту, хоча насправді вони їх перевели шахраям. 

Чому проблема Deepfake є складнішою, ніж здається

Deepfake-відео є результатом роботи GAN – генеративно-змагальної нейронної мережі (generative adversarial network). Ця мережа складається з двох нейромереж, перша займається тим, що генерує фейк, а друга його визначає. Якщо друга виявляє фейк, перша відкидає створений нею варіант або вдосконалює його до того часу, поки не створить практично досконалий фейк.

Це означає, що застосування аналогічних нейромереж для ідентифікації Deepfake-відео рано чи пізно зіткнеться з алгоритмом GAN і фактично навчить його обходити створений алгоритм визначення фейків, так само, як друга нейромережа навчає першу. Таким чином, детектор визначення Deepfake-відео по суті створює нові Deepfake-відео, які неможливо виявити. Цей парадокс вчені назвали дилемою сучасної області штучного інтелекту, що є на сьогоднішній день інструментом з відкритим вихідним кодом, тобто доступним для всіх охочих.

Як Google, Facebook, Twitter борються з глибинними фейками

Сучасний соціальний інтернет – ідеальне місце для поширення скандальних відео. Саме тому і Google, і Facebook зайнялися боротьбою з Deepfake.

У вересні 2019 року компанія Google зібрала базу даних, до якої увійшли 3 тис відеороликів. Ця база даних буде використовуватися для визначення фейкових відео. Для створення бази даних компанія використовувала найвідоміші публічні алгоритми створення Deepfake. 

Однак коли співробітники компанії Dessa вирішили перевірити   роботу цього датасета (цієї бази даних), то виявилося, що він у 40% випадків не зміг виконати поставлене перед ним завдання. Головний висновок, зроблений фахівцями, був таким: «Декількох сотень синтетичних відео недостатньо для вирішення проблеми, тому що вони не обов’язково поділяють характеристики підроблених відео, які розповсюджуються сьогодні, а тим більше найближчими роками».

Компанії Facebook, Amazon і Microsoft (і низка провідних американських університетів) вирішили провести конкурс Deepfake Detection Challenge на кращий спосіб визначення Deepfake-відео. Компанії готові інвестувати у великі призові, наприклад, Facebook планує виділити $ 10 млн. 

https://ai.facebook.com/blog/deepfake-detection-challenge

Вже на початку січня Facebook повідомила про власні заходи боротьби з deepfake-відео. Компанія заявила, що буде видаляти відеоконтент, відредагований інструментами на основі нейронних мереж і штучного інтелекту. Крім того, в повідомленні у блозі компанії зазначено, що до підробленого контенту вона віднесе такий, що містить слова, які не були вимовлені героями відео в реальному житті. У Facebook пообіцяли вивчити контент, генерований ШІ, так само як і продовжити пошук його авторів та усвідомити глобальну мету зусиль таких людей. 

Дуже позитивно, що компанія озвучила чіткі критерії відео, які будуть видалятися. До таких відео належатимуть ролики, які були відредаговані або синтезовані не з метою поліпшення якості, а з метою введення в оману аудиторії відео. Іншими словами, якщо відео виправлене, щоб глядачі отримали кращу картинку або звук, це не буде проблемою. Якщо ж до вуст героя ролика вкладені чужі слова, це відео буде видалятися. Другий критерій – якщо відео стане предметом роботи нейронних мереж і штучного інтелекту.

У той же час, до цих критеріїв додається пояснення – компанія не буде реагувати на пародійний контент або сатиру, які «були відредаговані для того, щоб пропустити або змінити порядок слів». Це уточнення говорить про те, що компанія не буде реагувати на маніпулятивний контент. І, найімовірніше, згадане вище відео з Ненсі Пелосі не підлягає видаленню згідно з оновленими критеріями.

Таке оголошення з боку Facebook – це, безумовно, крок вперед. Однак потрібно розуміти, що рішення було озвучено за кілька днів до слухань в Конгресі США стосовно дезінформації і фейків.

Проте, у новій anti-deepfake-політиці Facebook є ще один позитивний момент – вона буде застосовуватися як до звичайних, так і до рекламних повідомлень. 

Тим часом, нові правила Facebook деякі експерти називають напівзаходами, стверджуючи, що «Політика Facebook не зачіпає ключове питання про те, як їх платформа використовується для поширення дезінформації, а скоріше про те, наскільки професійно ця дезінформація створюється».

Twitter оголосив про те, що планує внести зміни до своєї політики роботи з даними і заборонити використання «будь-якого фото, аудіо чи відео», яке було значним чином змінено. Така ж вимога стосуватиметься Deepfake-відео. Компанія визначає Deepfake як «будь-яке фото, аудіо чи відео, яке було значно змінене або створене таким чином, щоб вводити людей в оману або змінювати його первісне значення». Анонс був зроблений у вересні, а в листопаді компанія представила чернетку нової політики щодо фальсифікацій, які оприлюднюються на її платформі. 

Deepfake-відео в майбутньому

Швидкість, з якою світ дізнався про те, що таке Deepfake-відео, вражає і експертів, і пересічних людей. Саме тому боротьба з Deepfake не може обмежитися тільки створенням автоматичних інструментів і роботою фактчекерів. Без підтримки соціальних платформ, а може і держав, які змушені реагувати на Deepfake-відео в законодавчому полі, ця боротьба напевно буде програна і так звані «прогнози песиміста» можуть виявитися реальністю.

Автор: Надія Баловсяк