Лех Рустецький

Російські операції впливу не лише генерують фальшиве відео та аудіо, але й навмисно отруюють інтернет контентом, що має формувати відповіді чат-ботів. У результаті дезінформація перестає бути просто контентом — вона стає частиною навчальних даних штучного інтелекту, створюючи абсолютно новий рівень інформаційної загрози.

Російська пропагандистська машина увійшла в нову фазу — еру штучного інтелекту. У 2023–2025 роках за багатьма напрямами фіксувалися випадки використання інструментів ШІ для створення та поширення прокремлівської дезінформації. Відео- та аудіодіпфейки, генеративні мовні моделі, клонування голосу та автоматизовані боти на базі ШІ стали частиною арсеналу в інформаційній війні. Масштаби цих дій безпрецедентні: від втручання у внутрішню політику Польщі та спроб підірвати моральний дух українців до впливу на громадську думку всієї Європи та США. Водночас зростає усвідомлення загроз і спроби реагування — виявлення фальсифікацій стає пріоритетом для спецслужб і ЗМІ, а експерти закликають до «цифрової пильності». У цій статті ми проаналізуємо, як російські дезінформаційні операції еволюціонували разом із розвитком інструментів штучного інтелекту, наведемо конкретні приклади останніх років, а також представимо прогнози на майбутнє та огляд дій розробників провідних моделей ШІ щодо протидії дезінформації.

Діпфейк як зброя пропаганди: від Польщі до України

Росія оперативно випробувала відеодіпфейки проти України одразу після початку повномасштабного вторгнення. Уже в березні 2022 року з’явилося фальшиве відео, на якому президент Володимир Зеленський нібито оголошує капітуляцію України та закликає армію скласти зброю. Якість цієї підробки була низькою: неприродно велике, нерухоме обличчя президента, накладене на чужий тулуб, і погана синхронізація руху губ. Проте пропагандисти намагалися підвищити достовірність повідомлення, зламавши рухомі рядки новин на українському телебаченні, щоб транслювати заклик до капітуляції. Хоча фейк швидко викрили, а президент Зеленський особисто спростував це «повідомлення», російські канали вихвалялися, що кілька українських бійців нібито повірили й справді склали зброю. Цей інцидент продемонстрував як потенціал, так і обмеження тогочасних діпфейків — їхня переконливість для масового глядача була ще незначною.

Однак технологія розвивається стрімко. У листопаді 2023 року прокремлівські джерела опублікували серію з трьох сфабрикованих відео, у яких генерал Валерій Залужний (тодішній Головнокомандувач ЗСУ) звинувачує Зеленського в загибелі свого радника і натякає, що сам може не дожити до наступних днів. Метою, очевидно, було розпалювання конфлікту між військом і президентом. Цього разу якість діпфейку була значно вищою, ніж у випадку з фальшивим Зеленським у 2022 році: постать Залужного виглядала доволі природно, рухи та міміка були плавнішими, хоча експерти все ж помітили дрібні аномалії (наприклад, мінімальну розсинхронізацію руху губ зі звуком). Утім, для недосвідченого глядача таке відео могло виглядати переконливо. Цей кейс демонструє еволюцію арсеналу діпфейків — від грубих монтажів до дедалі досконаліших імітацій відомих осіб.

Наступним прикладом стала спроба цілеспрямованої атаки на вузьку аудиторію — у цьому випадку іноземних добровольців, які воюють на боці України. На початку 2024 року російські хакери видали себе за колишнього президента Петра Порошенка під час телеконференції з бійцями Міжнародного легіону оборони України. Під час сфабрикованого відеодзвінка «Порошенко» (згенерований штучним інтелектом) виголошував провокаційні тези проти Зеленського, намагаючись розсварити легіонерів із чинною владою. Всю інтригу розкрив Kyiv Independent: виявилося, що за операцією стояли російські фахівці з дезінформації, а так звані «перебої в мережі» під час розмови мали приховати недоліки діпфейку. Цей інцидент довів, що технологію можна використовувати й для точкових атак, спрямованих на конкретні спільноти або групи, адаптуючи контент до ситуації.

Діпфейки на фронті викликають особливе занепокоєння, оскільки стирають межу між правдою та брехнею. В Україні давно попереджали, що Росія використовуватиме такі техніки для посіяння сумнівів — і це дійсно сталося. Окрім повністю сфабрикованих фейків, з’являлися й простіші маніпуляції: монтаж справжніх записів або постановочні зйомки за участю акторів. Одним із найгучніших прикладів був відеоролик, який нібито показував, як українські солдати стріляють у жінку з дитиною; пізніше було встановлено, що його зняли на окупованій Росією території за участю підставних осіб. Такі дії призвели до того, що до будь-якого відеоматеріалу з фронту почали ставитися з дедалі більшою підозрою.

Російська дезінформація активно використовує клонування голосу та аудіосинтез. У 2024 році в соціальних мережах з’явився сфабрикований кліп, у якому губернатор Техасу Грег Ебботт нібито хвалить Путіна — слова були синтезовані, а факт маніпуляції підтвердили Fox News та офіс губернатора. Запис мав на меті вразити американських правих, натякаючи, що республіканський політик підтримує Кремль.

У 2024 році прокремлівські канали випустили фальшиве відео про нібито змову українських спецслужб з метою замаху на Такера Карлсона. Аналіз виявив цифрову маніпуляцію зображенням і звуком. Метою було дискредитувати Україну та викликати обурення серед консервативної аудиторії в США.

Варто зазначити, що у 2023 році також було викрито широкомасштабну операцію впливу в TikTok та на інших платформах, що проводилася англійською мовою. У її межах було створено тисячі пропагандистських відео щонайменше 7 мовами, у яких українську владу звинувачували в корупції. Усі ці відео об’єднувала одна деталь: диктор говорив нейтральним голосом без акценту, згенерованим штучним інтелектом. Мета полягала в тому, щоб приховати російське походження цього контенту — завдяки синтезу мовлення тролі з «фабрики» в Санкт-Петербурзі могли видавати себе за «звичайних людей» з різних країн, які нібито діляться думками з низового рівня. Це ще один фронт, на якому штучний інтелект слугує дезінформації: агресор буквально говорить голосом місцевих громад, щоб підвищити правдоподібність брехні.

Генеративний ШІ сприяє поширенню фейкових новин: тексти, клони ЗМІ та «грумінг» моделей

Російська дезінформація використовує штучний інтелект не лише для фальсифікації зображень і голосів, а й для масового створення маніпулятивних текстів. Великі мовні моделі (LLM) дозволяють пропагандистам генерувати переконливі статті та коментарі, а також впливати на самі алгоритми шляхом маніпулювання контентом у мережі. Прикладом є мережа сайтів Portal Kombat (зокрема «Правда»), що публікують багатомовну, у тому числі польською, тиражовану проросійську пропаганду. Хоча ці сайти мають небагато реальних читачів, їхньою метою є «отруєння» інтернету, щоб моделі ШІ визнавали ці наративи достовірними. За даними NewsGuard, у 2023 році аж третина відповідей провідних чат-ботів містила елементи російської дезінформації, що стало результатом навчання саме на такому контенті.

Це явище отримало назву «грумінг LLM» (LLM grooming) — цілеспрямоване «виховання» моделей ШІ на пропагандистських даних. Доказ ефективності? ChatGPT та інші боти могли цитувати вигадані російські джерела або повторювати тези про «нацистів в Україні» чи про «вину Польщі» без будь-якого попередження. Іншими словами, дезінформація вийшла на системний рівень — замість того, щоб досягати аудиторії лише через статтю чи відео у Facebook, вона може бути згенерована на власний запит користувача за допомогою позірно нейтрального штучного інтелекту. Боротьба з пропагандою таким чином перейшла на фронт забезпечення якості навчальних даних для ШІ та усвідомлення загроз, пов’язаних із відповідями моделей.

Росія використовує генеративний ШІ для виробництва сучасної дезінформації. Операція «Двійник» (Doppelganger, 2022–2023) полягала у створенні десятків вебсайтів, що імітували авторитетні західні ЗМІ, зокрема Le Monde, The Guardian та Bild. На їхніх сторінках публікувалися фальшиві статті, що дискредитували Україну, біженців та НАТО, а все це підтримувала мережа фіктивних акаунтів у соціальних мережах.

США визначили двох росіян — Іллю Гамбашидзе  та Миколу Тупікіна — координаторами кампанії. Завдяки інструментам штучного інтелекту вони могли масово продукувати контент багатьма мовами. Аналіз засвідчив, що статті, створені штучним інтелектом, були бездоганними з мовного погляду і стилізовані під професійну журналістику, що ускладнювало виявлення підробки.

«Двійник» показує, що Росія будує цілу інфраструктуру — фальшиві портали, боти та мережі штучного інтелекту, — щоб підірвати довіру до західних ЗМІ та поширювати пропаганду у спосіб, який важче ідентифікувати пересічному споживачеві.

У 2025 році генеративний ШІ був використаний у Литві для масового виробництва правдоподібних діпфейків, у яких підроблені політики та лікарі просували конспірологічні теорії та «чудодійні» засоби. Фальшиві записи, стилізовані під фрагменти телевізійних інтерв’ю, швидко поширилися у Facebook у кількох країнах ЄС, ввівши в оману сотні тисяч людей. Кампанія виявилася міжнародною фінансовою аферою: кіберзлочинці, серед іншого, лякали вакцинами, щоб спонукати аудиторію переходити за посиланнями та купувати підозрілі препарати. Антивакцинальні активісти, несвідомо підсилюючи меседжі, самі поширювали фейки. Литовські служби швидко виявили та заблокували близько 20 акаунтів, але ця справа показала, наскільки небезпечними стали діпфейки та як легко сьогодні поєднуються політичні маніпуляції з шахрайством.

Творці моделей ШІ проти дезінформації: ChatGPT, Gemini, Grok, Perplexity, DeepSeek, Mistral

Динамічний розвиток великих мовних моделей призвів до появи на ринку просунутих чат-ботів, здатних генерувати відповіді на майже будь-яке запитання. Такі моделі, як OpenAI ChatGPT, Google Gemini, Meta LLaMa (наприклад, у формі помічника Meta AI), Anthropic Claude, xAI Grok, Perplexity AI або китайський DeepSeek, змагаються між собою за можливості. Однак їхні творці стоять перед серйозним викликом: як запобігти перетворенню ШІ на інструмент дезінформації або несвідомому поширенню фальшивих наративів? Це питання є тим більш нагальним, що мільйони людей починають розглядати чат-боти як основне джерело інформації, замінюючи ними традиційні пошукові системи чи медіа.

Дотеперішні тести дають неоднозначну картину ефективності заходів безпеки. З одного боку, NewsGuard ще в середині 2023 року продемонстрував, що популярні чат-боти були вразливі до проникнення російських наративів (статистика на той час вказувала на близько 33% «заражених» відповідей). З іншого боку, останній звіт NewsGuard від серпня 2025 року показує, що в десяти провідних інструментах ШІ частка повторення неправдивих тверджень зросла до 35%. Дані за серпень 2024 року фіксували показник 18%, що означає майже подвоєння за рік. На думку авторів звіту, це зростання можна пояснити тим, що системи ШІ почали інтенсивно використовувати пошук у реальному часі (відсоток відмов у відповіді знизився з 31% у 2024 р. до 0% у 2025 р.), що призвело до більшої експозиції «забруднених» джерел — включно із сайтами з низьким рівнем модерації, публікаціями в соціальних мережах та фермами, що генерують AI-контент, який моделі не змогли ефективно відрізнити від надійних ЗМІ.

Прогнози, рекомендації та попередження

Події 2022–2025 років однозначно вказують на те, що поєднання дезінформації та штучного інтелекту буде одним із найбільших викликів для інформаційної безпеки в найближчі роки. Росія, а також інші режими, продемонстрували готовність використовувати новітні технологічні досягнення для поширення хаосу, впливу на демократії та реалізації власних геополітичних цілей. Що нас чекає далі? Які тенденції можуть проявитися до 2030 року? Ось кілька прогнозів та рекомендацій щодо підготовки.

Діпфейки ставатимуть дедалі реалістичнішими й доступнішими навіть на домашніх комп’ютерах, зокрема в режимі реального часу, що дозволяє видавати себе за когось під час прямої трансляції. Це створить ризик скоординованих інформаційних атак, наприклад, одночасних фальшивих звернень світових лідерів, які можуть спричинити паніку ще до їх спростування. Тому потрібні процедури експрес-перевірки автентичності ключових повідомлень, інвестиції в технології виявлення діпфейків та офіційні канали, де громадяни можуть миттєво верифікувати записи.

Росія вже використовує ШІ для локалізації пропаганди (приклад — операція Doppelganger). Незабаром моделі генеруватимуть персоналізовані повідомлення для конкретних груп або навіть окремих осіб, що ускладнить виявлення дезінформації, оскільки кожен одержувач бачитиме унікальний варіант наративу. Для протидії таким кампаніям потрібні просунуті інструменти аналізу Big Data, які агрегують і порівнюють контент із соціальних медіа з метою виявлення патернів. Соціальні платформи повинні надавати дослідникам відповідні дані.

Атаки на довіру до правди посилюватимуться: чим більше діпфейків, тим вища суспільна невпевненість навіть в автентичних матеріалах. «Ефект діпфейку» (Liars dividend) дозволяє кожному ставити під сумнів правду; наприклад, політик може пояснити реальний скандал нібито фальшивкою. Це призводить до ерозії спільної реальності, що грає на руку Кремлю. Рішення: запровадити цифрові підписи та сертифікати походження (watermarking) важливого контенту, інформувати про існування фальшивок та маркери автентичності, а також посилити стандарти фактчекінгу в ЗМІ.

Російська пропаганда мігруватиме туди, де з’являються нові аудиторії та слабший нагляд — зокрема, у метавсесвіт, VR та онлайн-ігри. Штучний інтелект дозволить створювати синтетичних інфлюенсерів — згенерованих персонажів, які поширюють дезінформацію. Тому моніторинг повинен охоплювати й нові платформи, а розробники VR-технологій мають превентивно впроваджувати механізми скарг та верифікації контенту.

Наостанок — застереження: поєднання штучного інтелекту та дезінформації є загрозою, масштаби якої ми тільки починаємо усвідомлювати. Якщо ми не відреагуємо належним чином, то можемо опинитися в реальності, де фальшиві, але досконало виконані повідомлення щодня заповнюватимуть публічний простір. Уявімо собі 2030 рік: вибори в ключовій країні Альянсу, а за тиждень до голосування відбувається «витік» сотень відео, аудіозаписів та документів — частина з них справжня, частина штучно сфабрикована. Вони змішуються в одне ціле, спричиняючи тотальний інформаційний хаос. Громадяни не в змозі відрізнити, які викриття щодо кандидата є справжніми, а які — брудною технологією іноземних спецслужб. Такий сценарій цілком реальний. Тому ми вже сьогодні маємо інвестувати в «щит і меч»: щит — це освіта, детекція, законодавство; меч — активне викриття та нейтралізація організаторів цих кампаній.

Майбутнє, безсумнівно, принесе ще досконаліші технології ШІ, але також і кращі методи їх контролю. Це гонка інформаційних озброєнь, у якій ми не можемо дозволити собі відставати. Зберігаймо здоровий скептицизм, підтримуймо чесну журналістику та вимагаймо відповідальності від технологічних гігантів. Правда в епоху ШІ потребує захисту — організованого, розумного та рішучого.