Ольга Юркова
У міру того, як штучний інтелект стає дедалі доступнішим і потужнішим, Росія активно інтегрує його в свої операції впливу. До вже традиційних засобів, таких як пропаганда в підконтрольних медіа, фейкові ресурси, мережі ботів і тролів, додаються генеративні технології: синтезовані зображення та відео, штучний голос, автоматизовані тексти, а також нові способи маніпуляції алгоритмами. Це змінює не лише масштаб, а й саму природу інформаційних операцій.
Україна вимушено опинилася на передовій цієї битви й виробляє власні підходи до розпізнавання, документування і протидії цим загрозам. Вони є ще не інституціалізованими в повному сенсі, проте вже демонструють ефективність.
Дезінформаційна машина Кремля в епоху ШІ
Російська пропаганда спирається на комплексний підхід, який не розрізняє цифрові та традиційні інструменти. Натомість прагне їх поєднати, каже французький дослідник Давид Колон «Репортерам без кордонів». Як йдеться в дослідженні RUSI, у російському дискурсі щодо ШІ з’являються ознаки професіоналізації – критика неякісного контенту й заклики до стратегічного використання нових технологій з прицілом на майбутні кампанії: «ШІ входить у стратегічну уяву російських мереж впливу».
З початку повномасштабного вторгнення кількість фейків, створених або поширених за допомогою ШІ, зростає. Вже у березні 2022 року в мережі з’явилося дипфейкове відео із «зверненням» президента Зеленського про капітуляцію, супроводжуване кібератакою на телеканал. Кілька подальших яскравих фейків продовжили цей тренд. Серед них – два ролики із закликами до військового перевороту нібито від тодішнього Головнокомандувача ЗСУ Валерія Залужного наприкінці 2023 року, поширені після загибелі його помічника через мережу Telegram-каналів. Оскільки їхня якість була вкрай низькою, їхню появу можна було пояснити лише сприятливим психологічним моментом. Ймовірно, пропагандисти розраховували, що аудиторія, «накручена» останніми подіями і пов’язаною з ними конспірологією у мережі, буде некритичною. Фейки оперативно спростували фактчекери й офіційні органи, але певну аудиторію вони отримали.
Одночасно проросійські мережі впливу почали тестувати ШІ для створення фейкових акаунтів із фотореалістичними аватарками та автоматизованим контентом. Соцмережами стали ширитися сотні згенерованих зображень, здебільшого про погану ситуацію на фронті, та вертикальних відео, де фейкові телеведучі й актори «розганяли зраду», здебільшого таргетовані на авдиторію старшого віку. Втім, критичне мислення і «надивленість» все ще дозволяють відрізнити їх від правди. Так, у березні 2025 Центр протидії дезінформації при РНБО (ЦПД) із Генштабом ЗСУ спростували вірусне відео про «масовий відступ українських сил із Покровська», яке ширилося у Telegram. Воно містило ознаки ШІ-генерації: «плаваючі» ноші, «літаючі» ноги, неприродне мовлення.
Але виявити ШІ неозброєним оком стає дедалі складніше. Сучасний рівень технологій дозволяє генерувати багато правдоподібного контенту, підсилювати меседжі, перекладати у реальному часі й ретельно таргетувати й адаптувати під цільову авдиторію в різних форматах та соцмережах. Це кардинально змінює масштаб операцій, адже обсяги контенту перевищують людські можливості перевірки. За даними OpenMinds, бот-мережі вже не тиражують один текст, а продукують тисячі варіантів, що ускладнює фіксацію та аналіз таких кампаній.
Лише за перші чотири місяці 2025 року ЦПД зафіксував 191 інформаційну операцію з застосуванням ШІ-генерованого контенту з охопленням щонайменше 84,5 млн переглядів. Як повідомляє Служба зовнішньої розвідки України, Росія використовує мережі ШІ-ботів для розширення своїх можливостей на таких платформах, як Telegram та WeChat. З огляду на те, що 72% українців отримують новини із Telegram, а для 81% він є провідною платформою для спілкування, це – загроза.
Дослідження RUSI свідчить, що генеративні інструменти значно знижують бар’єр входу в інформаційну війну для різних проросійських акторів – від державних структур до приватних активістів на кшталт групи NoName057(16) і цифрових інфлюенсерів. Умовно кажучи, створити дезінформаційну кампанію тепер може не лише державна фабрика тролів, а й група анонімів, які володіють базовими навичками користування ШІ.
Foreign Affairs описує маніпулятивну атаку в США: європейські та американські посадовці отримали повідомлення нібито від держсекретаря Марко Рубіо, подекуди з фейковими голосовими записами. Якби обман не викрили, це могло б скомпрометувати дипломатів або спричинити витік закритих розвідувальних даних. У серпні 2025 Університет Вандербільта повідомив, що китайська компанія GoLaxy створила ШІ-профілі понад 2000 американських публічних осіб. Подібні кампанії вже фіксували в Гонконзі та Тайвані, де мільйонам людей надсилали гіперперсоналізовані повідомлення, адаптовані до їхніх психологічних особливостей. Ці кампанії ґрунтуються на пошуку вразливостей – політичних уподобань, цінностей чи навіть звичок онлайн-шопінгу. Видання порівнює такий підхід із боєм автономними дронами проти неповоротких лінкорів «старомодної» пропаганди.
Водночас масові інформаційні кампанії з використанням ШІ працюють інакше. Таким прикладом є згадана вище масштабна кампанія ботів, виявлена дослідниками OpenMinds та DFRLab. У Telegram-каналах, орієнтованих на мешканців тимчасово окупованих територій України, діяло понад 3600 ботів, які менш ніж за півтора року залишили щонайменше 316 тисяч коментарів. Мета – створити враження масової підтримки окупації. Пізніше ті ж боти були задіяні у виборах у Молдові, поширюючи заклики до участі в антиурядових протестах та голосування за проросійські сили.
Інший сценарій – «інформаційна лавина». Так звану операцію Overload запустили, щоб перевантажити журналістів, фактчекерів і дослідників ШІ-фейками. З липня 2023 до червня 2025 зафіксовано понад 1300 різних матеріалів. Хоча кампанія діяла на X, Bluesky та TikTok, її ядром є Telegram. 673 канали, керовані невеликою скоординованою групою, орієнтовані на російськомовну авдиторію в Україні, Молдові, Польщі, Німеччині й США. Це сигнал для фактчекерів не лише спростовувати окремі фейки, а аналізувати їх як частину скоординованих кампаній.
Ще один вектор впливів – використання образів українських журналісток. «Тексти» дослідили у TikTok 595 згенерованих відео за їхньої участі, які сумарно зібрали понад 24 мільйони переглядів. Частина мала синтетичні голоси, інші – повністю штучний сюжет. Такі ролики не лише експлуатують довіру до журналісток як інструмент дезінформації, а підривають їхню репутацію, провокуючи онлайн-хейт, кібербулінг і «охолоджувальний ефект» для інших жінок у професії. «Жінки в медіа» визначають це як форму технологічного гендерного насильства (TFGBV).
Новим рівнем дезінформації стає маніпуляція самими алгоритмами, відома як LLM grooming. Йдеться про створення контенту не для людей, а для потрапляння в навчальні вибірки великих мовних моделей, аби згодом впливати на відповіді чатботів, які мільйони користувачів сприймають як надійні джерела. Перші тривожні сигнали з’явилися ще 2022 року, коли дослідники виявили високий рівень дезінформації в деяких мовах і локаціях у пошуковій видачі Google (до 33%), Bing і Yandex (до 70%) щодо міфу про «американські біолабораторії в Україні».
Найвідоміший приклад – мережа Pravda, яку описали DFRLab з Atlantic Council. Росія «заражає» великі мовні моделі через поширення своїх наративів серед навчальних даних. У результаті 6 із 10 протестованих чатботів повторили фейкове твердження про нібито заборону Зеленським платформи Truth Social. За рік рівень дезінформації у відповідях 10 найпопулярніших ботів зріс із 18% до 35%.
У серпні 2025 команда «Текстів» поставила 2803 запитання про Україну 27 мовним моделям. Деякі, зокрема китайська DeepSeek, демонстрували проросійські наративи або ухилялися від підтвердження української позиції. Інші дослідження показали: точність відповідей про російську агресію залежить від мови: англомовні запити дають точніші результати, ніж менш поширеними мовами, для яких є менше якісних навчальних даних. Як застерігає дослідник Давид Колон, довіра до ботів як до фактчекерів лише посилює віру в фейки: «Це має бути людська робота, робота журналіста».
Втім, нові загрози стимулюють нові рішення. В умовах постійного інформаційного тиску Україна не лише захищається, а й формує практики, що можуть стати взірцем для світу.
Україна як лабораторія протидії
Сьогодні в Україні активно застосовують OSINT-інструменти для перевірки інформації, від аналізу зображень і відео до перевірки метаданих і геолокації. Фактчекінгові ініціативи на кшталт StopFake і VoxCheck адаптують свої методики до нових викликів генеративного ШІ, працюючи з синтетичними текстами, відео, аудіо та зображеннями.
Аналітичні центри, як-от Texty.org.ua і OpenMinds, виходять за межі фактчекінгу, досліджуючи вплив генеративних моделей на уявлення про Україну, зокрема в англомовному інтернеті. Це важливо не лише для медіа, а й для формування стратегій державної інформаційної політики, адже великі мовні моделі вже впливають на міжнародне сприйняття країни.
Особливої уваги заслуговують інструменти активної протидії. Стартапи Osavul і Mantis Analytics, створені після початку повномасштабного вторгнення, розробили ШІ-системи, що виявляють дезінформаційні кампанії на ранніх етапах – через виявлення скоординованої поведінки та наративних шаблонів. Компанія Molfar працює з великими масивами даних для виявлення зрадників, воєнних злочинців і пошуку викрадених Росією дітей. OSINT-інструменти ШІ корисні не лише держструктурам, а й журналістам – у розслідуваннях й документуванні воєнних злочинів російської армії.
Водночас цифрова протидія потребує підтримки через освіту й регулювання, зокрема підзвітність платформ соціальних медіа. Україна вже визнає ШІ-дезінформацію як інформаційну загрозу. Протистояти їй можна лише у співпраці держави, медіа, громадянського суспільства й міжнародних партнерів. Серед перспективних напрямів – створення відкритих баз знань про нові методи ШІ-впливів та підвищення медіаграмотності щодо генеративних технологій.
Для України важливо не лише тримати оборону, а й діяти на випередження. Тому важливо розбудовувати інфраструктуру протидії ШІ-дезінформації вже сьогодні. Ось кілька базових рекомендацій для журналістів, громадських організацій та всіх, хто працює з інформацією:
Розвивати технічну обізнаність щодо генеративних ШІ. Для журналістів це також основа для етичного використання ШІ в редакційній роботі.
Користуватися інструментами перевірки контенту. Hive, Sensity, Forensically, InVID –сервіси, які допомагають виявити штучне походження зображень і відео.
Аналізувати не лише зміст, а й спосіб поширення. Ботоподібна поведінка, синхронна публікація, повторювані шаблони – можливі маркери ШІ-кампаній.
Інституціоналізувати протидію. Впроваджувати у медіа та громадських організаціях внутрішні протоколи верифікації контенту та джерел, адаптовані до викликів ШІ.
Пояснювати авдиторії багатовимірну природу загрози. ШІ-дезінформація – не лише технологічна, а й політична, соціальна й етична проблема. Ризик – не в самих інструментах, а в їх використанні для дестабілізації, підриву довіри, деморалізації тощо.



