Пьотр Матеуш Боболович

Боротьба з дезінформацією наприкінці четвертого року повномасштабної російської агресії проти України набула характеру глобальних зусиль, які часто можуть здаватися сізіфовою працею. Нові технології дозволяють з низькими витратами та високою ефективністю створювати дезінформаційний контент, чим Росія охоче користується. Водночас моделі ШІ, попри те, що самі по собі схильні до помилок та вразливі до дезінформації, пропонують нові методи перевірки фактів та створення достовірного контенту. Ця стаття є спробою окреслити ситуацію та відповісти на питання про ефективність і сенс подальшої боротьби з дезінформацією в її нинішній формі.

За даними, представленими компанією Imperva, у 2024 році інтернет-трафік, генерований ботами, вперше перевищив 50%[1]. В Інтернеті офіційно вже більше автоматизованих ботів, ніж людей. Варто зазначити, що лише 17% трафіку генерують «корисні» боти, тобто ті, що індексують вебсторінки, допомагають навчати ВММ (Великі мовні моделі — тобто популярні чат-боти на основі ШІ) та виконують інші технічні функції в мережі. Натомість аж 37% трафіку припадає на шкідливі боти, які здійснюють кібератаки, виманюють і крадуть дані, поширюють дезінформацію та мову ворожнечі або просто генерують спам. Заходячи у соціальні мережі, іноді можна дійти висновку, що так звана «теорія мертвого Інтернету»[2], яка стверджує, що більшість контенту генерується ботами та алгоритмами для інших ботів та алгоритмів, хоча, можливо, і не є цілком правдивою, проте влучно ілюструє існуючі тенденції. Однак у кінці цього ланцюжка все одно стоїть людина, яка часто протистоїть корпораціям або іншим інституційним суб’єктам, що володіють ресурсами для автоматизації процесів у мережі.

Навіть ці «корисні» боти можуть мати негативний вплив на деякі аспекти функціонування Інтернету. Наприклад, вони генерують штучний трафік на вебсайтах, спотворюючи результати маркетингових кампаній і призводячи до неефективного витрачання бюджетів. Особливо важливою в цьому контексті стає також пастка навчання ВММ, які, поглинаючи все більше контенту, згенерованого штучним інтелектом, деградують у наступних ітераціях, суттєво знижуючи якість генерованих відповідей[3].

З цього випливає очевидна загроза в контексті дезінформації: автоматичне наповнення Інтернету дезінформаційним контентом (так зване flooding the zone — буквально «затоплення зони», посилання на інформаційну тактику Стіва Беннона, колишнього політичного стратега Дональда Трампа[4]) призводить до навчання на цих даних моделей ШІ, які згодом з більшою ймовірністю видаватимуть спотворені відповіді. Попри присутність у цих процесах так званого human-in-the-loop, тобто ручного контролю процесу навчання, цю проблему неможливо повністю усунути через колосальний обсяг даних, які щодня аналізують мовні моделі.

Проте автоматизована дезінформація отруює не тільки алгоритми ШІ, а й людський розум і, можливо, насамперед емоції. Є старий анекдот, у якому після вечері з друзями господарі виявляють зникнення срібної ложечки. У телефонній розмові гість, звісно, переконує, що не має до цього жодного стосунку, а наприкінці господар каже, що «ложка знайшлася, але неприємний осад залишився». Конфронтація з неправдивістю певної інформації — припускаючи оптимістичний сценарій, що така конфронтація взагалі відбувається — не змінює того факту, що емоції, викликані первинною (дез)інформацією, вже залишили слід у свідомості користувача. Це явище посилюється в нинішній ситуації, коли користувачі соціальних медіа рідко читають зміст статей, покладаючись лише на заголовки[5].

Аналіз заголовків преси в Інтернеті у 2000–2025 роках, проведений П’єтро Ніклом, Мехді Муссаїдом і Філіппом Лоренц-Спріном, свідчить, що ЗМІ різко змістилися в бік сенсаційності та негативізму[6]. Заголовки вже не виконують лише інформаційну функцію, а мають на меті викликати сильну емоційну реакцію. Було зафіксовано зростання негативно забарвлених повідомлень на 30%. Заголовки стали в середньому на 25% довшими. Еволюція пройшла шлях від коротких еквівалентів речень (телеграфний стиль, характерний для початку 2000-х) до повних, розгорнутих речень. Водночас використання особових займенників (наприклад, «ти», «твоє») зросло на 20%, що має на меті скоротити дистанцію та безпосередньо залучити читача. Подібну мету переслідують заголовки у формі запитань — їх кількість зросла на 15%. Усі ці особливості посилюють емоційну реакцію на відображуваний (бо важко сказати, що прочитаний) контент. Що гірше, навіть медіа, які досі вважалися надійними, вдаються до подібних технік через необхідність виживати на висококонкурентному ринку інтернет-медіа. Формулювання заголовків у вигляді запитань також дозволяє спритно вводити суперечливі теми, які легко спотворюють реальність — іноді навмисно, хоча часто лише випадково. Звинувачення когось у корупції чи іншому скандалі з додаванням знаку питання в кінці захищає автора тексту (адже в самій статті пояснюється, що попри підозри, факт злочину не було), але у споживача, який не аналізує зміст, це призводить до закріплення негативних асоціацій щодо певної особи, держави чи групи. ЗМІ часто дослівно цитують заяви російських офіційних осіб, не перевіряючи факти, а заголовки прямо повторюють тези російської пропаганди, попри те, що в змісті статей ці тези згодом спростовуються[7].

Тим більш тривожним є той факт, що користувачі соціальних мереж не тільки не читають статті, але й поширюють цей контент, попередньо не ознайомившись із ним. Згідно з дослідженням, проведеним у 2017–2020 роках С. Шаямом Сундаром і Джеймсом П. Джиміро та опублікованим у Nature Human Behavior, це стосується аж 75% публікацій[8]. Лише чверть посилань поширюється свідомо. Дослідження було опубліковано тільки у 2024 році, але є обґрунтовані побоювання, що за цей час ситуація не покращилася, а навпаки. Проблемою, якої не існувало на той час, але з якою ми стикаємося сьогодні, є посилення впливу неперевіреної інформації через згадане вище явище отруєння мовних моделей.

Згідно з дослідженням, проведеним Університетом Мельбурна та KPMG, 58% користувачів у світі вважають ШІ надійним джерелом[9]. Водночас варто звернути увагу на різницю в результатах між країнами: з одного боку спектра знаходяться високорозвинені країни, такі як Фінляндія, Канада, Нова Зеландія чи Франція, де рівень довіри становить менше 50%. Близько 50% демонструють, серед інших, США та Велика Британія. Варто звернути увагу на Польщу — тут близько 56% користувачів довіряють ШІ. На іншому кінці спектра знаходяться країни Глобального Півдня — Китай, Індія, Єгипет чи Нігерія, де рівень довіри сягає понад 80%. Тут простежується певна кореляція з дезінформаційними діями Російської Федерації. Там, де довіра до ШІ вища, особливо сприятливим ґрунтом стають пропагандистські наративи Кремля. Це може бути пов’язано з багатьма факторами, одним з яких, безсумнівно, є низький загальний рівень медіаграмотності та цифрової компетентності (media literacy та digital literacy), що також корелює із середнім рівнем освіти. Якщо врахувати чисельність населення цих країн, то перед нами постає загрозлива картина світу, в якому дезінформація має ідеальні умови для поширення. У поєднанні з привабливістю певних російських пропагандистських наративів у цих країнах (що широко трактуються як побудова альтернативи Заходу та «західному імперіалізму», антиколоніалізм) та їхньою співпрацею з Росією на офіційному рівні в межах BRICS+, це створює потужний розсадник контенту, що резонує з російською пропагандою.

Тут також варто згадати про феномен російських державних ЗМІ в Латинській Америці. Іспаномовна версія телеканалу, раніше відомого як Russia Today, який сьогодні маскується під акронімом RT en Español, має більше підписників у Facebook, ніж будь-який інший міжнародний іспаномовний мовник (наприклад, BBC Mundo, Deutsche Welle чи навіть El País)[10]. У TikTok вона зібрала понад 29,6 мільйона «лайків» і тріумфує також — у вигляді різних клонів — на YouTube, незважаючи на заборону російських державних ЗМІ.

Кілька років тому багато говорили про купівлю «лайків» у соціальних мережах[11]. Цим користувалися інфлюенсери, але також створювалися практично повністю штучні акаунти. За наявності відповідних фінансових ресурсів можна створити профілі та надати їм видимості достовірності. Кількість підписників або активність під постами має подвійне значення: з одного боку, це підвищує видимість певного контенту для алгоритмів, що трансформується в посилений вплив на реальних споживачів, а з іншого — підсилює довіру до такого контенту (адже якщо так багато людей це переглядають або «лайкають», то це, мабуть, правда). Багато з таких акаунтів є ботами, і оператори соціальних медіа намагаються з ними боротися. З іншого боку, в ролі «ботів» часто виступають жителі Глобального Півдня — особливо Південно-Східної Азії, Індії чи Пакистану, де навіть невеликі гроші, які можна заробити на цій діяльності, мають значну вагу.

У листопаді 2025 року платформа X (колишній Twitter) запровадила нову функцію, яка показує користувачеві, де було створено акаунт і звідки публікується контент, і ці дані не можуть бути змінені користувачем. Це виявило, що багато активних акаунтів, які поширюють російські дезінформаційні наративи, виступаючи як користувачі зі США чи Європейського Союзу, походять або з вищезазначених регіонів світу, або безпосередньо з Росії та Білорусі, або з Нідерландів, але з використанням VPN (Нідерланди пропонують високу якість послуг у цій сфері, одночасно надаючи зручне прикриття «європейськості» для таких користувачів).

Платформа X також є цікавим прикладом спроб саморегулювання галузі соціальних медіа. Перші кроки були зроблені ще до пандемії Covid-19, але саме антивакцинальна пропаганда та справжня епідемія дезінформації в той період продемонстрували серйозність ситуації, що призвело до запровадження у 2022 році Кодексу поведінки щодо дезінформації в Європейському Союзі[12]. Багато провайдерів вжили різних заходів, також із різним результатом, тоді як платформа Ілона Маска (придбана ним у жовтні 2022 року) зробила ставку на «нотатки спільноти» (англ. community notes), тобто низовий фактчекінг, заснований на залученні самих користувачів. Децентралізація цього процесу, безумовно, впливає на масштаб реакції, однак її швидкість є недостатньою, через що втрачається момент найбільшої вірусності поширення дезінформаційного контенту[13]. Загалом нотатки спільноти зменшують охоплення та кінцевий вплив дезінформації лише на кілька відсотків (хоча позначені пости поширюються практично вдвічі рідше). Хоч це і є вимірюваним результатом, у потоці дезінформаційного контенту цього абсолютно недостатньо.

Це загальна тенденція у фактчекінгу. У той час як дезінформація дуже швидко досягає вірусного охоплення, контент, що спростовує фейки або попереджає про них, у результаті каскадних процесів поширення в соціальних мережах має охоплення, яке в 10–20 разів нижче[14]. Однак втішним є той факт, що дезінформація, попри величезні охоплення, часто потрапляє на несприятливий ґрунт. Достовірна інформація має більший вплив на групу споживачів, незважаючи на те, що загалом її аудиторія менша. Водночас існує група користувачів з радикальними поглядами, яка активно поширює дезінформацію[15]. Такі висновки випливають з досліджень. Однак фактом є те, що в багатьох західних країнах політичні кола, які розповсюджують дезінформацію, збільшують свою політичну підтримку та присутність у ЗМІ. Показовим прикладом тут є німецька медіа-сцена, де дослідження виявили, що у вибірці з 1382 епізодів інформаційних програм і ток-шоу за 2023–2024 роки у 4,85% випадків з’являвся дезінформаційний контент, причому показник для ток-шоу становив аж 11,62%[16]. Більшість дезінформації в ЗМІ походить від популістських політиків (переважно AfD), а журналісти лише в половині випадків обтяжують себе виправленням неправдивих тверджень. Подібні тенденції спостерігаються і в польських ЗМІ. Це також пов’язано з цілеспрямованим запрошенням до ефіру одіозних політиків, які є носіями дезінформації, суголосної з російською пропагандою, з метою збільшення аудиторії шляхом провокування суперечок.

У Польщі вплив дезінформації на суспільство можна простежити на прикладі зміни ставлення до інших народів. Після повномасштабної агресії Росії проти України у 2022 році симпатія до українців (51% респондентів) і неприязнь до росіян (82% респондентів заявили про неприязнь) були рекордно високими. Однак у дослідженні CBOS на початку 2025 року помітна зміна цих тенденцій. Симпатію до українців декларують вже лише 30% респондентів, а неприязнь до росіян знизилася на 10 відсоткових пунктів — до 72%, залишаючись, втім, рекордно високою. Водночас симпатію до росіян висловлює 8% польського суспільства, а неприязнь до українців — аж 38% (порівняно з 15% у 2022 році)[17].

З огляду на таку ситуацію, постає питання, чи має сенс боротьба з дезінформацією, і якщо так, то як її вести. Ефективність дезінформації в деяких інформаційних бульбашках є дуже високою, а в інших — практично нульовою. Це також підтверджує психологічне явище природного прагнення шукати контент, що підкріплює вже існуючі погляди[18]. Однак є значна група людей, відкритих до пошуку істини. Враховуючи зростаючу недовіру до контенту загалом, варто робити ставку на просування якісної журналістики та перевірки фактів. Водночас у деяких регіонах світу, наприклад в Африці, високу ефективність демонструє застосування методів, подібних до тих, що використовують актори, які поширюють дезінформацію, — тільки з протилежним вектором[19]. Висока вартість доступу до Інтернету переносить інформаційну війну на рівень текстових повідомлень у месенджерах, таких як WhatsApp. Дослідження показують, що ці методи можна застосовувати і зі шляхетною метою.

Однак основою боротьби з дезінформацією залишається освіта. Інформування суспільства про загрози, що посилюються технологічним розвитком, та формування відповідального підходу до використання цифрових послуг є необхідним елементом створення свідомого громадянського суспільства, стійкого до маніпуляцій. На жаль, сьогодні гасло «вмикай мислення» часто означає відмову від надійних джерел і базування своїх знань на сенсаційних історіях, згенерованих штучним інтелектом, або на тезах популістських політиків, які таким чином нарощують свій електоральний капітал.

Боротьба з дезінформацією, безсумнівно, є складною і невдячною справою, але вона необхідна. Ця потреба постійно зростає у зв’язку з інтенсифікацією гібридних дій з боку Російської Федерації. Сьогодні протидія дезінформації є питанням національної та міжнародної безпеки, тому потрібно прагнути підвищувати її ефективність, не впадаючи у відчай перед іноді уявною перевагою агресора. Однак не можна забувати, що освіта — це процес, який триває роками, а загроза існує тут і зараз.

Понад сто років тому Волтер Ліппман у своїй книзі «Громадська думка» визначив трикутник взаємозв’язків між свідомістю та реальністю. Наше сприйняття реально існуючого світу перетворюється на образ, який ми створюємо, і саме на його основі, а не безпосередньо на основі фактів, ми вживаємо заходів, які вже мають вимірювані наслідки в матеріальному світі. Тому інформаційна війна має особливе значення — бо хоча вона, здавалося б, ведеться на абстрактному рівні, її наслідки вже мають цілком конкретний вимір.


[1] BAD BOT REPORT The Rapid Rise of Bots and the Unseen Risk for Business, Interva, 2025, https://www.imperva.com/resources/gated/reports/2025-Bad-Bot-Report.pdf

[2] Self-Replicating Prompts for Large Language Models: Towards Artificial Culture, LMU Munich, 22.07.2024, https://direct.mit.edu/isal/proceedings/isal2024/36/110/123523

[3] Kristian Hammond, Degenerative AI: The Risks of Training Systems on their own Data, 6.09.2024, https://casmi.northwestern.edu/news/articles/2024/degenerative-ai-the-risks-of-training-systems-on-their-own-data.html

[4] John Maynor, Flood the Zone with Shit: Algorithmic Domination in the Modern Republic, 19 June 2025, MDPI, https://www.mdpi.com/2076-0760/14/6/391

[5] Ashley WennersHerron, Social media users probably won’t read beyond this headline, researchers say, 19.11.2024, Pennsylvania State University, https://www.psu.edu/news/research/story/social-media-users-probably-wont-read-beyond-headline-researchers-say

[6] Pietro Nickl, Mehdi Moussaïd, Philipp Lorenz-Spreen, The evolution of online news headlines, 13.03.2025, [у:] Humanities and Social Sciences Communications, https://www.nature.com/articles/s41599-025-04514-7#author-information

[7] Rosyjska propaganda podsyca antyukraińskie nastroje, 3.06.2025, Euractiv, https://euractiv.pl/section/grupa-wyszehradzka/news/rosyjska-propaganda-podsyca-w-naszym-regionie-antyukrainskie-nastroje

[8] Ashley WennersHerron, Social media users probably won’t read beyond this headline, researchers say, 19.11.2024, Pennsylvania State University, https://www.psu.edu/news/research/story/social-media-users-probably-wont-read-beyond-headline-researchers-say

[9] Trust, attitudes and use of Artificial Intelligence: A global study 2025, University of Melbourne&KPMG, 2025, https://kpmg.com/xx/en/our-insights/ai-and-technology/trust-attitudes-and-use-of-ai.html

[10] Jessica Brandt, An information strategy for the United States, 5.05.2023, Brookings, https://www.brookings.edu/articles/an-information-strategy-for-the-united-states

[11] Michael Baggs, Instagram: Why paying for followers and likes is bad news for real fans, 13.07.2019, BBC, https://www.bbc.com/news/newsbeat-48952123

[12] The 2022 Code of Practice on Disinformation, https://digital-strategy.ec.europa.eu/en/policies/code-practice-disinformation

[13] Community-based fact-checking reduces the spread of misleading posts on social media, 13.09.2024, https://arxiv.org/html/2409.08781v1

[14] Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online, Science, https://news.mit.edu/2018/study-twitter-false-news-travels-faster-true-stories-0308

[15] Measuring receptivity to misinformation at scale on a social media platform, жовтень 2024, PNAS Nexus, Volume 3, Issue 10, https://academic.oup.com/pnasnexus/article/3/10/pgae396/7754768?login=false#485902606

[16] Sami Nenno, Separate worlds of misinformation. An explorative study of checked claims in German public broadcast news and talk shows, 22.09.2025, Taylor&Francis Online, https://www.tandfonline.com/doi/full/10.1080/1369118X.2025.2561030

[17] Stosunek Polaków do innych narodów, лютий 2025, CBOS, https://www.cbos.pl/SPISKOM.POL/2025/K_013_25.PDF

[18] Sustaining Exposure to Fact-Checks: Misinformation Discernment, Media Consumption, and Its Political Implications, 20.02.2025, Cambridge Univeristy,

[19] Combating Misinformation using Fact-Checking via WhatsApp in South Africa, липень 2023, Abdul Latif Jameel Poverty Action Lab, https://www.povertyactionlab.org/evaluation/combating-misinformation-using-fact-checking-whatsapp-south-africa