Ольга Юркова

По мере того, как искусственный интеллект становится все более доступным и мощным, Россия активно интегрирует его в свои операции влияния. К уже традиционным средствам, таким как пропаганда в подконтрольных медиа, фейковым ресурсам, сети ботов и троллей, добавляются генеративные технологии: синтезированные изображения и видео, искусственный голос, автоматизированные тексты, а также новые способы манипуляции алгоритмами. Это изменяет не только масштаб, но и саму природу информационных операций.

Украина вынужденно оказалась на передовой этой битвы и вырабатывает собственные подходы к распознаванию, документированию и противодействию этим угрозам. Они еще не институционализированы в полном смысле, однако уже демонстрируют эффективность.

Дезинформационная машина Кремля в эпоху ИИ

Российская пропаганда опирается на комплексный подход, не различающий цифровых и традиционных инструментов. Напротив, она стремится их объединить, объясняет французский исследователь Давид Колон «Репортерам без границ». Как говорится в исследовании RUSI, в российском дискурсе об ИИ появляются признаки профессионализации – критика некачественного контента и призывы к стратегическому использованию новых технологий с прицелом на будущие кампании: «ИИ входит в стратегическое представление российских сетей влияния». 

С начала полномасштабного вторжения количество фейков, созданных или распространенных с помощью ИИ, растет. Уже в марте 2022 года в сети появилось дипфейковое видео с обращением президента Зеленского о капитуляции, сопровождавшееся кибератакой на телеканал. Несколько последующих ярких фейков продолжили этот тренд. Среди них – два ролика с призывами к военному перевороту якобы от тогдашнего Главнокомандующего ВСУ Валерия Залужного в конце 2023 года, распространенные после гибели его помощника через сеть Telegram-каналов. Поскольку качество роликов было крайне низким, их появление можно объяснить исключительно благоприятным психологическим моментом. Вероятно, пропагандисты рассчитывали, что аудитория, «накрученная» последними событиями и связанной с ними конспирологией в сети, будет некритически настроенной. Фейки оперативно опровергли фактчекеры и официальные органы, но определенную аудиторию они получили.

Одновременно пророссийские сети влияния начали тестировать ИИ для создания фейковых аккаунтов с фотореалистичными аватарками и автоматизированным контентом. В соцсетях стали распространяться сотни сгенерированных изображений, в основном о плохой ситуации на фронте, и вертикальных видео, где фейковые телеведущие и актеры «разгоняли зраду», таргетированных преимущественно на аудиторию старшего возраста. Впрочем, критическое мышление и «насмотренность» все еще позволяют отличить их от правды. Так, в марте 2025 года Центр противодействия дезинформации при СНБО (ЦПД) с Генштабом ВСУ опровергли вирусное видео о «массовом отступлении украинских сил из Покровска», которое распространялось в Telegram. Оно содержало признаки ИИ-генерации: «плавающие» носилки, «летающие» ноги, неестественная речь.

Но обнаружить ИИ невооруженным глазом становится все сложнее. Современный уровень технологий позволяет генерировать много правдоподобного контента, усиливать месседжи, переводить в реальном времени, а также тщательно таргетировать и адаптировать под целевую аудиторию в различных форматах и ​​соцсетях. Это кардинально изменяет масштаб операций, ведь объем контента превышает человеческие возможности проверки. По данным OpenMinds, бот-сети уже не тиражируют один текст, а производят тысячи вариантов, что затрудняет фиксацию и анализ таких кампаний.

Только за первые четыре месяца 2025 года ЦПД зафиксировал 191 информационную операцию с применением ИИ-генерируемого контента с охватом не менее 84,5 млн просмотров. Как сообщает Служба внешней разведки Украины, Россия использует сети ИИ-ботов для расширения своих возможностей на таких платформах, как Telegram и WeChat. Учитывая, что 72% украинцев получают новости из Telegram, а для 81% он является ведущей платформой для общения, это – угроза.

Исследование RUSI свидетельствует, что генеративные инструменты значительно снижают барьер входа в информационную войну для различных пророссийских акторов – от государственных структур до частных активистов типа группы NoName057(16) и цифровых инфлюэнсеров. Условно говоря, создать дезинформационную кампанию теперь может не только государственная фабрика троллей, но и группа анонимов, обладающих базовыми навыками использования ИИ.

Foreign Affairs описывает манипулятивную атаку в США: европейские и американские чиновники получили сообщение якобы от госсекретаря Марко Рубио, местами с фейковыми голосовыми записями. Если бы обман не разоблачили, это могло бы скомпрометировать дипломатов или вызвать утечку закрытых разведывательных данных. В августе 2025 года Университет Вандербильта сообщил, что китайская компания GoLaxy создала ИИ-профили более 2000 американских публичных лиц. Подобные кампании уже фиксировали в Гонконге и Тайване, где миллионам людей посылали гиперперсонализированные сообщения, адаптированные к их психологическим особенностям. Эти кампании основываются на поиске уязвимостей – политических предпочтений, ценностей или даже привычек онлайн-шопинга. Издание сравнивает такой подход с боем автономными дронами против неповоротливых линкоров «старомодной» пропаганды.

В то же время массовые информационные кампании с использованием ИИ работают иначе. Одним из таких примеров является вышеупомянутая масштабная кампания ботов, обнаруженная исследователями OpenMinds и DFRLab. В Telegram-каналах, ориентированных на жителей временно оккупированных территорий Украины, действовало более 3600 ботов,  за неполных полтора года оставивших не менее 316 тысяч комментариев. Цель – создать впечатление массовой поддержки оккупации. Позже те же боты были задействованы в выборах в Молдове, распространяя призывы к участию в антиправительственных протестах и ​​голосованию за пророссийские силы.

Другой сценарий – «информационная лавина». Так называемую операцию Overload запустили, чтобы перегрузить журналистов, фактчекеров и исследователей ИИ-фейками. С июля 2023 года по июнь 2025 года было зафиксировано более 1300 различных материалов. Хотя кампания действовала на X, Bluesky и TikTok, ее ядром является Telegram. 673 канала, управляемые небольшой скоординированной группой, ориентированы на русскоязычную аудиторию в Украине, Молдове, Польше, Германии и США. Это сигнал для фактчекеров не только опровергать отдельные фейки, но и анализировать их как часть скоординированных кампаний.

Еще один вектор влияний – использование образов украинских журналисток. «Тексты» исследовали в TikTok 595 сгенерированных видео с их участием, которые суммарно собрали более 24 миллиона просмотров. Часть из них содержала синтетические голоса, другие – полностью искусственный сюжет. Такие ролики не только эксплуатируют доверие к журналисткам как инструмент дезинформации, но и подрывают их репутацию, провоцируя онлайн-хейт, кибербуллинг и «охлаждающий эффект» для других женщин в профессии. «Женщины в медиа» определяют это как форму технологического гендерного насилия (TFGBV).

Новым уровнем дезинформации становится манипуляция самими алгоритмами, известная как LLM grooming. Речь идет о создании контента не для людей, а для попадания в обучающие выборки больших языковых моделей, чтобы впоследствии влиять на ответы чата, которые миллионы пользователей воспринимают как надежные источники. Первые тревожные сигналы появились еще в 2022 году, когда исследователи обнаружили высокий уровень дезинформации в некоторых языках и локациях в поисковой выдаче Google (до 33%), Bing и Yandex (до 70%) по поводу мифа об «американских биолабораториях в Украине».

Самый известный пример – сеть Pravda, описанная DFRLab из Atlantic Council. Россия «заражает» большие языковые модели посредством распространения своих нарративов среди обучающих данных. В результате 6 из 10 протестированных чатов повторили фейковое утверждение о якобы запрете Зеленским платформы Truth Social. За год уровень дезинформации в ответах 10 самых популярных ботов вырос с 18% до 35%.

В августе 2025 года команда «Текстов» задала 2803 вопроса об Украине 27 языковым моделям. Некоторые, в частности, китайская DeepSeek, демонстрировали пророссийские нарративы или уклонялись от подтверждения украинской позиции. Другие исследования показали: точность ответов о российской агрессии зависит от языка: англоязычные запросы дают более точные результаты, чем менее распространенные языки, для которых имеется меньше качественных обучающих данных. Как предостерегает исследователь Давид Колон, доверие к ботам как фактчекерам лишь усиливает веру в фейки: «Это должна быть человеческая работа, работа журналиста».

Впрочем, новые угрозы стимулируют новые решения. В условиях постоянного информационного давления Украина не только защищается, но и формирует практики, которые могут стать образцом для мира.

Украина как лаборатория противодействия

Сегодня в Украине активно применяют OSINT-инструменты для проверки информации, от анализа изображений и видео до проверки метаданных и геолокации. Фактчекинговые инициативы типа StopFake и VoxCheck адаптируют свои методики к новым вызовам генеративного ИИ, работая с синтетическими текстами, видео, аудио и изображениями.

Аналитические центры, такие как Texty.org.ua и OpenMinds, выходят за пределы фактчекинга, исследуя влияние генеративных моделей на представление об Украине, в частности в англоязычном интернете. Это важно не только для СМИ, но и для формирования стратегий государственной информационной политики, ведь большие языковые модели уже влияют на международное восприятие страны.

Особого внимания заслуживают инструменты активного противодействия. Стартапы Osavul и Mantis Analytics, созданные после начала полномасштабного вторжения, разработали ИИ-системы, обнаруживающие дезинформационные кампании на ранних этапах – посредством выявления скоординированного поведения и нарративных шаблонов. Компания Molfar работает с большими массивами данных для обнаружения предателей, военных преступников и поиска похищенных Россией детей. OSINT-инструменты ИИ полезны не только для госструктур, но и для журналистов – в расследованиях и документировании военных преступлений российской армии.

В то же время цифровое противодействие нуждается в поддержке через образование и регулирование, в частности подотчетность платформ социальных медиа. Украина уже признает ИИ-дезинформацию как информационную угрозу. Противостоять ей можно только в сотрудничестве государства, медиа, гражданского общества и международных партнеров. Среди перспективных направлений – создание открытых баз знаний о новых методах ИИ-влияний и повышении медиаграмотности в вопросах генеративных технологий.

Для Украины важно не только держать оборону, но и действовать на опережение. Поэтому необходимо развивать инфраструктуру противодействия ИИ-дезинформации уже сегодня. Вот несколько базовых рекомендаций для журналистов, общественных организаций и всех работающих с информацией:

Развивать техническую осведомленность о генеративных ИИ. Для журналистов это также основа для этического использования ИИ в редакционной работе.

Пользоваться инструментами проверки контента. Hive, Sensity, Forensically, InVID – сервисы, помогающие выявить искусственное происхождение изображений и видео.

Анализировать не только содержание, но способ распространения. Ботообразное поведение, синхронная публикация, повторяющиеся шаблоны – возможны маркеры ИИ-кампаний.

Институционализировать противодействие. Внедрять в медиа и общественные организации внутренние протоколы верификации контента и источников, адаптированные к вызовам ИИ.

Объяснять аудитории многомерную природу угрозы. ИИ-дезинформация – не только технологическая, но и политическая, социальная и этическая проблема. Риск – не в самих инструментах, а в их использовании для дестабилизации, подрыва доверия, деморализации и т.п.