Петр Матеуш Боболович
Борьба с дезинформацией к концу четвертого года полномасштабной российской агрессии против Украины приобрела характер глобальных усилий, которые часто могут казаться сизифовым трудом. Новые технологии позволяют с низкими затратами и высокой эффективностью создавать дезинформационный контент, чем Россия охотно пользуется. В то же время модели ИИ несмотря на то, что сами по себе подвержены ошибкам и уязвимы к дезинформации, предлагают новые методы проверки фактов и создания достоверного контента. Эта статья является попыткой определить ситуацию и ответить на вопрос об эффективности и смысле дальнейшей борьбы с дезинформацией в ее нынешней форме.
По данным, представленным компанией Imperva, в 2024 году интернет-трафик, генерируемый ботами, впервые превысил 50% [1] . В Интернете официально уже больше автоматизированных ботов, чем людей. Стоит отметить, что только 17% трафика генерируют «полезные» боты, а именно индексирующие веб-страницы, помогающие обучать БЯМ (Большие языковые модели — то есть популярные чат-боты на основе ИИ) и выполняющие другие технические функции в сети. Вместе с тем 37% трафика приходится на вредные боты, которые осуществляют кибератаки, выманивают и воруют данные, распространяют дезинформацию и язык вражды или просто генерируют спам. Заходя в социальные сети, иногда можно сделать вывод, что так называемая «теория мертвого Интернета» [2] , утверждающая, что большинство контента генерируется ботами и алгоритмами для других ботов и алгоритмов, возможно, и не вполне правдива, но в то же время метко иллюстрирует существующие тенденции. Однако в конце этой цепочки все равно стоит человек, часто противостоящий корпорациям или другим институциональным субъектам, обладающим ресурсами для автоматизации процессов в сети.
Даже эти «полезные» боты могут оказать негативное влияние на некоторые аспекты функционирования Интернета. К примеру, они генерируют искусственный трафик на вебсайтах, искажая результаты маркетинговых кампаний и приводя к неэффективному расходованию бюджетов. Особенно важной в этом контексте становится также ловушка обучения БЯМ, которые, поглощая все больше контента, сгенерированного искусственным интеллектом, деградируют в последующих итерациях, существенно снижая качество генерируемых ответов [3] .
Из этого следует очевидная угроза в контексте дезинформации: автоматическое наполнение Интернета дезинформационным контентом (так называемое flooding the zone — буквально «затопление зоны», ссылка на информационную тактику Стива Беннона, бывшего политического стратега Дональда Трампа [4] ) приводит к обучению на этих данных моделей ИИ, которые с большой долей вероятности будут выдавать искаженные ответы. Несмотря на присутствие в этих процессах так называемого human-in-the-loop, то есть ручного контроля процесса обучения, эту проблему невозможно полностью устранить из-за колоссального объема данных, каждый день анализируемого языковыми моделями.
Однако автоматизированная дезинформация отравляет не только алгоритмы ИИ, но и человеческий разум и, вероятно, прежде всего эмоции. Есть старый анекдот, в котором после ужина с друзьями владельцы обнаруживают исчезновение серебряной ложечки. В телефонном разговоре гость, конечно, убеждает, что не имеет к этому никакого отношения, а в конце хозяин говорит, что «ложечка нашлась, но неприятный осадок остался». Конфронтация с ложностью определенной информации — предполагая оптимистический сценарий, что такая конфронтация вообще происходит — не изменяет того факта, что эмоции, вызванные первичной (дез)информацией, оставили след в сознании пользователя. Это явление усиливается в нынешней ситуации, когда пользователи социальных медиа редко читают содержание статей, полагаясь только на заголовки [5] .
Анализ заголовков прессы в Интернете в 2000-2025 годах, проведенный Пьетро Никлом, Мехди Муссаидом и Филиппом Лоренц-Сприном, свидетельствует, что СМИ резко сместились в сторону сенсационности и негативизма [6] . Заголовки уже не выполняют только информационную функцию, а имеют целью вызвать сильную эмоциональную реакцию. Был зафиксирован рост отрицательно окрашенных сообщений на 30%. Заголовки стали в среднем на 25% длиннее. Эволюция прошла путь от кратких эквивалентов предложений (телеграфный стиль, характерный для начала 2000-х) до полных, развернутых предложений. В то же время использование личных местоимений (например, «ты», «твое») выросло на 20%, что призвано сократить дистанцию и непосредственно привлечь читателя. Подобную цель преследуют заголовки в форме вопросов – их количество выросло на 15%. Все эти особенности усиливают эмоциональную реакцию на отображаемый (ибо трудно сказать, что прочитанный) контент. Хуже того, даже медиа, которые до сих пор считались надежными, прибегают к подобным техникам из-за необходимости выживать на высококонкурентном рынке интернет-медиа. Формулировка заголовков посредством вопросов также позволяет ловко вводить противоречивые темы, которые легко искажают реальность — иногда намеренно, хотя часто лишь случайно. Обвинение кого-то в коррупции или ином скандале с добавлением знака вопроса в конце защищает автора текста (ведь в самой статье объясняется, что, несмотря на подозрения, факта преступления не было), но у потребителя, который не анализирует содержание, это приводит к закреплению негативных ассоциаций в отношении определенного лица, государства или группы. СМИ часто дословно цитируют заявления российских официальных лиц, не проверяя факты, а заголовки прямо повторяют тезисы российской пропаганды, несмотря на то, что в содержании статей эти тезисы впоследствии опровергаются [7] .
Тем более тревожен тот факт, что пользователи социальных сетей не только не читают статьи, но и распространяют этот контент, предварительно не ознакомившись с ним. Согласно исследованию, проведенному в 2017–2020 годах С. Шаямом Сундаром и Джеймсом П. Джимиро и опубликованным в Nature Human Behavior, это касается 75% публикаций [8] . Лишь четверть ссылок распространяется осознанно. Исследование было опубликовано только в 2024 году, но есть обоснованные опасения, что за это время ситуация не только не улучшилась, а наоборот усугубилась. Проблемой, которой не существовало в то время, но с которой мы сталкиваемся сегодня, является усиление влияния непроверенной информации через упомянутое явление отравления языковых моделей.
Согласно исследованию, проведенному Университетом Мельбурна и KPMG, 58% пользователей в мире считают ИИ надежным источником [9] . В то же время следует обратить внимание на разницу в результатах между странами: с одной стороны спектра находятся высокоразвитые страны, такие как Финляндия, Канада, Новая Зеландия или Франция, где уровень доверия составляет менее 50%. Около 50% демонстрируют, среди прочих, США и Великобритания. Следует обратить внимание на Польшу – здесь около 56% пользователей доверяют ИИ. На другом конце спектра находятся страны Глобального Юга — Китай, Индия, Египет или Нигерия, где уровень доверия превышает 80%. Здесь прослеживается определенная корреляция с дезинформационными действиями Российской Федерации. Там, где доверие к ИИ выше, особенно благоприятной почвой становятся пропагандистские нарративы Кремля. Это может быть связано со многими факторами, одним из которых, несомненно, является низкий общий уровень медиаграмотности и цифровой компетентности (media literacy и digital literacy ), что также коррелирует со средним уровнем образования. Если учесть численность населения этих стран, то перед нами предстает угрожающая картина мира, где дезинформация имеет идеальные условия для распространения. В сочетании с привлекательностью определенных российских пропагандистских нарративов в этих странах (широко трактуемых как построение альтернативы Западу и «западному империализму», антиколониализм) и их сотрудничеством с Россией на официальном уровне в рамках BRICS+, это создает мощный рассадник контента, резонирующий с российской пропагандой.
Здесь также следует упомянуть о феномене российских государственных СМИ в Латинской Америке. Испаноязычная версия телеканала, ранее известного как Russia Today, который сегодня маскируется под акронимом RT en Español, имеет больше подписчиков в Facebook, чем любой другой международный испаноязычный вещатель (например, BBC Mundo, Deutsche Welle или даже El País) [10] . В TikTok она собрала более 29,6 миллионов «лайков» и также торжествует– в виде разных клонов – на YouTube, несмотря на запрет российских государственных СМИ.
Несколько лет назад многие говорили о покупке «лайков» в социальных сетях [11] . Этим пользовались инфлюэнсеры, но также создавались практически полностью искусственные аккаунты. При наличии соответствующих финансовых ресурсов можно создать профили и придать им видимость достоверности. Количество подписчиков или активность под постами имеет двойное значение: с одной стороны, это повышает видимость определенного контента для алгоритмов, трансформирующуюся в усиленное влияние на реальных потребителей, а с другой — усиливает доверие к такому контенту (ведь если так много людей это просматривают или «лайкают», то это, вероятно, правда). Многие из таких аккаунтов являются ботами, и операторы социальных медиа пытаются с ними бороться. С другой стороны, в роли «ботов» часто выступают жители Глобального Юга — особенно Юго-Восточной Азии, Индии или Пакистана, где даже небольшие деньги, которые можно заработать с помощью этой деятельности, имеют значительный вес.
В ноябре 2025 года платформа X (бывший Twitter) ввела новую функцию, которая показывает пользователю, где был создан аккаунт и откуда публикуется контент, и эти данные не могут быть изменены пользователем. Это выявило, что многие активные аккаунты, распространяющие российские дезинформационные нарративы, выступая при этом как пользователи из США или Европейского Союза, происходят либо из вышеупомянутых регионов мира, либо непосредственно из России и Беларуси, либо из Нидерландов, но с использованием VPN (Нидерланды предлагают высокое качество услуг в этой сфере, одновременно предоставляя удобное прикрытие «европейскости» для таких пользователей).
Платформа X также является интересным примером попыток саморегулирования в области социальных медиа. Первые шаги были сделаны еще до пандемии Covid-19, но именно антивакцинальная пропаганда и настоящая эпидемия дезинформации в тот период продемонстрировали серьезность ситуации, что привело к внедрению в 2022 году Кодекса поведения относительно дезинформации в Европейском Союзе [12] . Многие провайдеры приняли различные меры, также с разным результатом, в то время как платформа Илона Маска (приобретенная им в октябре 2022 года) сделала ставку на «заметки сообщества» (англ. community notes), то есть низовой фактчекинг, основанный на привлечении самих пользователей. Децентрализация этого процесса, безусловно, влияет на масштаб реакции, однако ее скорость недостаточна, из-за чего теряется момент наибольшей вирусности распространения дезинформационного контента [13] . В конечном счете заметки сообщества уменьшают охват и конечное влияние дезинформации лишь на несколько процентов (хотя отмеченные посты распространяются практически вдвое реже). Несмотря на то, что такой результат является измеряемым, в потоке дезинформационного контента этого совершенно недостаточно.
Это общая тенденция в фактчекинге. В то время как дезинформация очень быстро достигает вирусного охвата, опровергающий фейки контент или предупреждающий о них контент в результате каскадных процессов распространения в социальных сетях имеет охват, который в 10–20 раз ниже [14] . Однако утешителен тот факт, что дезинформация, несмотря на огромные охваты, часто попадает в неблагоприятную почву. Достоверная информация имеет большее влияние на группу потребителей несмотря на то, что в целом ее аудитория меньше. В то же время существует группа пользователей с радикальными взглядами, активно распространяющая дезинформацию [15] . Такие выводы вытекают из исследований. Однако фактом является то, что во многих западных странах политические круги, распространяющие дезинформацию, увеличивают свою политическую поддержку и присутствие в СМИ. Показательным примером здесь является немецкая медиа-сцена, где исследования обнаружили, что в выборке из 1382 эпизодов информационных программ и ток-шоу за 2023-2024 годы в 4,85% случаев появлялся дезинформационный контент, причем показатель для ток-шоу составил 11,62% [16] . Большинство дезинформации в СМИ происходит от популистских политиков (преимущественно AfD), а журналисты лишь в половине случаев утруждают себя исправлением ложных утверждений. Подобные тенденции наблюдаются и в польских СМИ. Это также связано с целенаправленным приглашением в эфир одиозных политиков, являющихся носителями дезинформации, созвучной с российской пропагандой, с целью увеличения аудитории путем провоцирования споров.
В Польше влияние дезинформации на общество можно проследить на примере изменения отношения к другим народам. После полномасштабной агрессии России против Украины в 2022 году симпатия к украинцам (51% респондентов) и неприязнь к россиянам (82% респондентов заявили о неприязни) были рекордно высокими. Однако в исследовании CBOS в начале 2025 года заметно изменение этих тенденций. Симпатию к украинцам декларируют уже только 30% респондентов, а неприязнь к россиянам снизилась на 10 процентных пунктов — до 72%, оставаясь рекордно высокой. В то же время симпатию к россиянам выражает 8% польского общества, а неприязнь к украинцам — 38% (по сравнению с 15% в 2022 году) [17] .
Учитывая такую ситуацию, возникает вопрос, имеет ли смысл борьба с дезинформацией, и если да, то как ее вести. Эффективность дезинформации в некоторых информационных пузырях очень высока, а в других — практически нулевая. Это также подтверждает психологическое явление природного стремления к поиску контента, подкрепляющего уже имеющиеся взгляды [18] . Однако также существует значительная группа людей, открытых к поиску истины. Учитывая растущее недоверие к контенту в целом, следует делать ставку на продвижение качественной журналистики и проверки фактов. В то же время в некоторых регионах мира, например в Африке, высокую эффективность демонстрирует применение методов, подобных тем, которые используют акторы, распространяющие дезинформацию, только с противоположным вектором [19] . Высокая стоимость доступа в Интернет переносит информационную войну на уровень текстовых сообщений в мессенджерах, таких как WhatsApp. Исследования показывают, что эти методы можно применять и в благородных целях.
Однако основой борьбы с дезинформацией остается образование. Информирование общества об угрозах, усиливающихся технологическим развитием, и формирование ответственного подхода к использованию цифровых услуг, является необходимым элементом создания сознательного гражданского общества, устойчивого к манипуляциям. К сожалению, сегодня лозунг «включай мышление» часто означает отказ от надежных источников и базирование своих знаний на сенсационных историях, сгенерированных искусственным интеллектом, или тезисах популистских политиков, наращивающих таким образом свой электоральный капитал.
Борьба с дезинформацией, несомненно, является сложным и неблагодарным делом, но она необходима. Эта потребность постоянно растет в связи с интенсификацией гибридных действий со стороны Российской Федерации. Сегодня противодействие дезинформации является вопросом национальной и международной безопасности, поэтому нужно стремиться к повышению ее эффективности, не отчаиваясь из-за иногда воображаемого преимущества агрессора. Однако нельзя забывать, что образование — это процесс, который длится годами, а угроза существует здесь и сейчас.
Более ста лет назад Уолтер Липпман в своей книге «Общественное мнение» определил треугольник взаимосвязей между сознанием и реальностью. Наше восприятие реально существующего мира превращается в образ, который мы создаем, и именно на его основе, а не непосредственно на основе фактов, мы принимаем меры, уже имеющие измеряемые последствия в материальном мире. Поэтому информационная война имеет особое значение — хотя она, казалось бы, ведется на абстрактном уровне, ее последствия уже имеют вполне конкретное измерение.
[1] BAD BOT REPORT Rapid Rise of Bots and Unseen Risk for Business, Interva, 2025, https://www.imperva.com/resources/gated/reports/2025-Bad-Bot-Report.pdf
[2] Self-Replicating Prompts for Large Language Models: Towards Artificial Culture, LMU Munich, 22.07.2024, https://direct.mit.edu/isal/proceedings/isal2024/36/110/123523
[3] Kristian Hammond, Degenerative AI: Risks of Training Systems on their own Data, 6.09.2024, https://casmi.northwestern.edu/news/articles/2024/degenerative-ai-the-risks-of-training-systems-on-their-own-own-day
[4] John Maynor, Флодд зоне с Shit: Algorithmic Domination in the Modern Republic, 19 June 2025, MDPI, https://www.mdpi.com/2076-0760/14/6/391
[5] Ashley WennersHerron, Social media users probably won’t read beyond this headline, researchers say, 19.11.2024, Pennsylvania State University, https://www.psu.edu/news/research/story/social-media-users-readline-woo
[6] Пиетро Никль, Мехди Муссаид, Филлип Лоренс-Сприен, Разработка веб-новости новостных сетей, 13.03.2025, [в:] Humanities and Social Sciences Communications, https://www.nature.com/articles/s41599-04
[7] Rosyjska propaganda podsyca antyukraińskie nastroje, 3.06.2025, Euractiv, https://euractiv.pl/section/grupa-wyszehradzka/news/rosyjska-propaganda-podsyca-w-naszym-regionie-antyukrainskie-nastroje
[8] Ashley WennersHerron, Social media users probably won’t read beyond this headline, researchers say, 19.11.2024, Pennsylvania State University, https://www.psu.edu/news/research/story/social-media-users-readline-woo
[9] Trust, attitudes and use of Artificial Intelligence: A global study 2025, University of Melbourne&KPMG, 2025, https://kpmg.com/xx/en/our-insights/ai-and-technology/trust-attitudes-and-use-of-ai.html
[10] Jessica Brandt, An information strategy for the United States, 5.05.2023, Brookings, https://www.brookings.edu/articles/an-information-strategy-for-the-united-states
[11] Michael Baggs, Instagram: Why paying for followers and likes is bad news for reals fans, 13.07.2019, BBC, https://www.bbc.com/news/newsbeat-48952123
[12] The 2022 Code of Practice on Disinformation, https://digital-strategy.ec.europa.eu/en/policies/code-practice-disinformation
[13] Community-based fact-checking reduces the spread of misleading posts on social media, 13.09.2024, https://arxiv.org/html/2409.08781v1
[14] Vosoughi, S., Roy, D., & Aral, S. (2018). Ссылки на true и false news online , Science, https://news.mit.edu/2018/study-twitter-false-news-travels-faster-true-stories-0308
[15] Measuring receptivity to misinformation на скале на социальной media platform, октябрь 2024, PNAS Nexus, Volume 3, Issue 10, https://academic.oup.com/pnasnexus/article/3/10/pgae396/7754768?85
[16] Sami Nenno, Separate worlds of misinformation. An explorative study of checked claims in German public broadcast news and talk shows, 22.09.2025, Taylor&Francis Online, https://www.tandfonline.com/doi/full/10.1080/1369118X.
[17] Stosunek Polaków do innych narodów, февраль 2025, CBOS, https://www.cbos.pl/SPISKOM.POL/2025/K_013_25.PDF
[18] Сопоставление Exposure to Fact-Checks: Misinformation Discernment, Media Consumption, и Its Political Implications, 20.02.2025, Cambridge Univeristy,
[19] Combating Misinformation using Fact-Checking via WhatsApp в South Africa, июль 2023, Abdul Latif Jameel Поverty Action Lab, https://www.povertyactionlab.org/evaluation/combating-misinformation-using-fact-checking-whatsapp-south-



