Лех Рустецкий

Российские операции влияния не только генерируют фальшивые видео и аудио, но и намеренно отравляют интернет-контент, который должен формировать ответы чат-ботов. В результате дезинформация перестает быть просто контентом – она становится частью обучающих данных искусственного интеллекта, создавая совершенно новый уровень информационной угрозы.

Российская пропагандистская машина вошла в новую фазу – эру искусственного интеллекта. В 2023–2025 годах по многим направлениям фиксировались случаи использования инструментов ИИ для создания и распространения прокремлевской дезинформации. Видео- и аудиодипфейки, генеративные языковые модели, клонирование голоса и автоматизированные боты на базе ИИ стали частью арсенала в информационной войне. Масштабы этих действий беспрецедентны: от вмешательства во внутреннюю политику Польши и попыток подорвать моральный дух украинцев до влияния на общественное мнение всей Европы и США. В то же время растут осознание угроз и попытки реагирования — выявление фальсификаций становится приоритетом для спецслужб и СМИ, а эксперты призывают к «цифровой бдительности». В этой статье мы проанализируем, как российские дезинформационные операции эволюционировали вместе с развитием инструментов искусственного интеллекта, приведем конкретные примеры последних лет, а также представим прогнозы на будущее и обзор действий разработчиков ведущих моделей ИИ по противодействию дезинформации.

Дипфейк как оружие пропаганды: от Польши до Украины

Россия оперативно опробовала видеодипфейки против Украины сразу после начала полномасштабного вторжения. Уже в марте 2022 появилось фальшивое видео, на котором президент Владимир Зеленский якобы объявляет капитуляцию Украины и призывает армию сложить оружие. Качество этой подделки было низким: неестественно большое, неподвижное лицо президента, наложенное на чужое туловище, и плохая синхронизация движения губ. Однако пропагандисты пытались повысить достоверность сообщения, взломав бегущие новостные строки на украинском телевидении, чтобы транслировать призыв к капитуляции. Хотя фейк быстро разоблачили, а президент Зеленский лично опроверг это «сообщение», российские каналы хвастались, что несколько украинских бойцов якобы поверили и действительно сложили оружие. Этот инцидент продемонстрировал как потенциал, так и ограничение тогдашних дипфейков — их убедительность для массового зрителя была еще незначительной.

Однако технология развивается стремительно. В ноябре 2023 года прокремлевские источники опубликовали серию из трех сфабрикованных видео, в которых генерал Валерий Залужный (в то время Главнокомандующий ВСУ) обвиняет Зеленского в гибели своего советника и намекает, что сам может не дожить до следующих дней. Целью, очевидно, было разжигание конфликта между войсками и президентом. На этот раз качество дипфейка было значительно выше, чем в случае с фальшивым Зеленским в 2022 году: фигура Залужного выглядела довольно естественно, движения и мимика были более плавными, хотя эксперты все же заметили мелкие аномалии (например, минимальную рассинхронизацию движения губ со звуком). Впрочем, для неопытного зрителя такое видео могло выглядеть убедительно. Этот кейс демонстрирует эволюцию арсенала дипфейков — от грубых монтажей до все более совершенных имитаций известных лиц.

Следующим примером стала попытка целенаправленной атаки на узкую аудиторию — в этом случае иностранных добровольцев, воюющих на стороне Украины. В начале 2024 года российские хакеры выдали себя за бывшего президента Петра Порошенко во время телеконференции с бойцами Международного легиона обороны Украины. Во время сфабрикованного видеозвонка «Порошенко» (сгенерированный искусственным интеллектом) произносил провокационные тезисы против Зеленского, пытаясь рассорить легионеров с действующей властью. Всю интригу раскрыл Kyiv Independent: оказалось, что за операцией стояли российские специалисты по дезинформации, а так называемые перебои в сети во время разговора должны были скрыть недостатки дипфейка. Этот инцидент доказал, что технологию можно использовать и для точечных атак, направленных на конкретные сообщества или группы, адаптируя контент к ситуации.

Дипфейки на фронте вызывают особую обеспокоенность, поскольку стирают границу между правдой и ложью. В Украине давно предупреждали, что Россия будет использовать такие техники с целью посеять сомнения, и это действительно произошло. Кроме полностью сфабрикованных фейков, появлялись и более простые манипуляции: монтаж настоящих записей или постановочные съемки с участием актеров. Одним из самых громких примеров был видеоролик, демонстрирующий, как украинские солдаты стреляют в женщину с ребенком; позже было установлено, что его сняли на оккупированной Россией территории с участием подставных лиц. Такие действия привели к тому, что к любому видеоматериалу с фронта стали относиться с подозрением.

Российская дезинформация активно использует клонирование голоса и аудиосинтез. В 2024 году в социальных сетях появился сфабрикованный клип, в котором губернатор Техаса Грег Эбботт якобы восхваляет Путина — слова были синтезированы, а факт манипуляции подтвердили Fox News и офис губернатора. Запись имела целью поразить американских правых, намекая, что республиканский политик поддерживает Кремль.

В 2024 году прокремлевские каналы выпустили фальшивое видео о якобы заговоре украинских спецслужб с целью покушения на Такера Карлсона. Анализ выявил цифровую манипуляцию с изображением и звуком. Целью было дискредитировать Украину и вызвать негодование среди консервативной аудитории в США.

Следует отметить, что в 2023 году также была разоблачена широкомасштабная операция влияния в TikTok и на других платформах, которая проводилась на английском языке. В ее рамках были созданы тысячи пропагандистских видео по меньшей мере на 7 языках, на которых украинские власти обвинялись в коррупции. Все эти видео объединяла одна деталь: диктор говорил нейтральным голосом без акцента, сгенерированным искусственным интеллектом. Цель заключалась в том, чтобы скрыть российское происхождение этого контента — благодаря синтезу речи тролли из «фабрики» в Санкт-Петербурге могли выдавать себя за «обычных людей» из разных стран, якобы делящихся мыслями с низового уровня. Это еще один фронт, на котором искусственный интеллект служит дезинформацией: агрессор буквально говорит голосом местных общин, чтобы повысить правдоподобие лжи.

Генеративный ИИ способствует распространению фейковых новостей: тексты, клоны СМИ и «груминг» моделей

Российская дезинформация использует искусственный интеллект не только для фальсификации изображений и голосов, но и для массового создания манипулятивных текстов. Большие языковые модели (LLM) позволяют пропагандистам генерировать убедительные статьи и комментарии, а также влиять на алгоритмы путем манипулирования контентом в сети. Примером является сеть сайтов Portal Kombat (в частности, «Правда»), публикующих многоязычную, в том числе польскую, тиражированную пророссийскую пропаганду. Хотя эти сайты имеют немного реальных читателей, их целью является «отравление» интернета, чтобы модели ИИ признавали эти нарративы достоверными. По данным NewsGuard, в 2023 году треть ответов ведущих чат-ботов содержала элементы российской дезинформации, что стало результатом обучения именно на таком контенте.

Это явление получило название «груминг LLM» (LLM grooming) — целенаправленное «воспитание» моделей ИИ на пропагандистских данных. Доказательство эффективности? ChatGPT и другие боты могли цитировать вымышленные российские источники или повторять тезисы о «нацистах в Украине» или о «вине Польши» без какого-либо предупреждения. Другими словами, дезинформация вышла на системный уровень – вместо того, чтобы достигать аудитории только посредством статьи или видео в Facebook, она может быть сгенерирована по собственному запросу пользователя с помощью показательно нейтрального искусственного интеллекта. Борьба с пропагандой перешла на фронт обеспечения качества учебных данных для ИИ и осознания угроз, связанных с ответами моделей.

Россия использует генеративный ИИ для производства современной дезинформации. Операция «Двойник» (Doppelganger, 2022–2023) заключалась в создании десятков вебсайтов, имитирующих авторитетные западные СМИ, в частности Le Monde, The Guardian и Bild. На их страницах публиковались фальшивые статьи, дискредитировавшие Украину, беженцев и НАТО, а все это поддерживала сеть фиктивных аккаунтов в социальных сетях.

США определили двух россиян – Илью Гамбашидзе и Николая Тупикина – как координаторов кампании. Благодаря инструментам искусственного интеллекта они могли массово продуцировать контент на многих языках. Анализ показал, что статьи, созданные искусственным интеллектом, были безупречны с языковой точки зрения и стилизованы под профессиональную журналистику, что затрудняло выявление подделки.

«Двойник» показывает, что Россия строит целую инфраструктуру — фальшивые порталы, боты и сети искусственного интеллекта, — чтобы подорвать доверие к западным СМИ и распространять пропаганду способом, который труднее идентифицировать рядовому потребителю.

В 2025 году генеративный ИИ был использован в Литве для массового производства правдоподобных дипфейков, в которых поддельные политики и врачи продвигали конспирологические теории и «чудодейственные» средства. Фальшивые записи, стилизованные под фрагменты телевизионных интервью, быстро распространились в Facebook в нескольких странах ЕС, обманув сотни тысяч человек. Кампания оказалась международной финансовой аферой: киберпреступники, в частности, пугали вакцинами, чтобы побуждать аудиторию переходить по ссылкам и покупать подозрительные препараты. Антивакцинаторские активисты, бессознательно усиливая месседжи, сами распространяли фейки. Литовские службы быстро обнаружили и заблокировали около 20 аккаунтов, но это дело показало, насколько опасными стали дипфейки и как сегодня легко сочетаются политические манипуляции с мошенничеством.

Создатели моделей ИИ против дезинформации: ChatGPT, Gemini, Grok, Perplexity, DeepSeek, Mistral

Динамическое развитие больших языковых моделей привело к появлению на рынке продвинутых чат-ботов, способных генерировать ответы на любой вопрос. Такие модели как OpenAI ChatGPT, Google Gemini, Meta LLaMa (например, в форме помощника Meta AI), Anthropic Claude, xAI Grok, Perplexity AI или китайский DeepSeek, соревнуются между собой в возможностях. Однако их создатели стоят перед серьезным вызовом: как предотвратить превращение ИИ в инструмент дезинформации или бессознательное распространение фальшивых нарративов? Этот вопрос тем насущнее, что миллионы людей начинают рассматривать чат-боты как основной источник информации, заменяя ими традиционные поисковые системы или медиа.

Предыдущие тесты дают неоднозначную картину эффективности мер безопасности. С одной стороны, NewsGuard еще в середине 2023 года продемонстрировал, что популярные чат-боты были уязвимы к проникновению российских нарративов (статистика к тому времени указывала на около 33% «зараженных» ответов). С другой стороны, последний отчет NewsGuard от августа 2025 года показывает, что в десяти ведущих инструментах ИИ доля повторения ложных утверждений возросла до 35%. Данные за август 2024 фиксировали показатель 18%, что означает почти удвоение за год. По мнению авторов отчета, этот рост можно объяснить тем, что системы ИИ начали интенсивно использовать поиск в реальном времени (процент отказов в ответе снизился с 31% в 2024 г. до 0% в 2025 г.), что привело к большей экспозиции «загрязненных» источников — включая сайты с низкими уровнями модерации, публикации в социальных сетях и фермы, генерирующие AI-контент, который модели не смогли эффективно отличить от надежных СМИ.

Прогнозы, рекомендации и предупреждения

События 2022–2025 годов однозначно указывают на то, что сочетание дезинформации и искусственного интеллекта будет одним из самых больших вызовов для информационной безопасности в ближайшие годы. Россия, а также другие режимы продемонстрировали готовность использовать новейшие технологические достижения для распространения хаоса, влияния на демократии и реализации собственных геополитических целей. Что ждет нас дальше? Какие тенденции могут проявиться к 2030 году? Вот несколько прогнозов и рекомендаций по подготовке.

Дипфейки будут становиться все более реалистичными и доступными даже на домашних компьютерах, в частности в режиме реального времени, что позволяет выдавать себя за кого-то другого во время прямой трансляции. Это создаст риск скоординированных информационных атак, например, одновременных фальшивых обращений мировых лидеров, которые могут вызвать панику еще до их опровержения. Поэтому необходимы процедуры экспресс-проверки подлинности ключевых сообщений, инвестиции в технологии обнаружения дипфейков и официальные каналы, где граждане могут мгновенно верифицировать записи.

Россия уже использует ИИ для локализации пропаганды (пример – операция Doppelganger). В скором времени модели будут генерировать персонализированные сообщения для конкретных групп или даже отдельных лиц, что усложнит обнаружение дезинформации, поскольку каждый получатель будет видеть уникальный вариант нарратива. Для противодействия таким кампаниям нужны продвинутые инструменты анализа Big Data, которые агрегируют и сравнивают контент из социальных медиа с целью выявления паттернов. Социальные платформы должны предоставлять исследователям соответствующие данные.

Атаки на доверие к правде будут усиливаться: чем больше дипфейков, тем выше общественная неуверенность даже в аутентичных материалах. «Эффект дипфейка» (Liars dividend) позволяет каждому подвергать сомнению правду; например, политик может объяснить реальный скандал якобы фальшивкой. Это приводит к эрозии общей реальности, играющей на руку Кремлю. Решение: внедрить цифровые подписи и сертификаты происхождения (watermarking) важного контента, информировать о существовании фальшивок и маркеров подлинности, а также усилить стандарты фактчекинга в СМИ.

Российская пропаганда будет мигрировать туда, где появляются новые аудитории и более слабый надзор — в частности, в метавселенную, VR и онлайн игры. Искусственный интеллект позволит создавать синтетических инфлюэнсеров – сгенерированных персонажей, распространяющих дезинформацию. Поэтому мониторинг должен охватывать новые платформы, а разработчики VR-технологий должны превентивно внедрять механизмы жалоб и верификации контента.

Напоследок — предостережение: сочетание искусственного интеллекта и дезинформации представляет угрозу, масштабы которой мы только начинаем осознавать. Если мы не отреагируем должным образом, то можем оказаться в реальности, где фальшивые, но безупречно выполненные сообщения будут ежедневно заполнять публичное пространство. Представим себе 2030 год: выборы в ключевой стране Альянса, а за неделю до голосования происходит «утечка» сотен видео, аудиозаписей и документов — часть из них настоящая, часть искусственно сфабрикована. Они смешиваются в одно целое, вызывая тотальный информационный хаос. Граждане не в состоянии отличить, какие разоблачения в отношении кандидата настоящие, а какие — грязная технология иностранных спецслужб. Такой сценарий вполне реален. Поэтому мы уже сегодня должны инвестировать в щит и меч: щит — это образование, детекция, законодательство; меч – активное разоблачение и нейтрализация организаторов этих кампаний.

Будущее, несомненно, принесет еще более совершенные технологии ИИ, но также и лучшие методы их контроля. Это гонка информационных вооружений, в которой мы не можем позволить себе отставать. Давайте сохранять здоровый скептицизм, поддерживать честную журналистику и требовать ответственности от технологических гигантов. Правда в эпоху ИИ нуждается в защите — организованной, разумной и решительной.