Источник: Артём Король, Сергей Михальков, для Текстов
В январе в TikTok распространяются ИИ-генерируемые видео, на которых ИИ-персонажи, выпучив глаза, кричат в Верховной Раде «что вы здесь жируете, а ребята гибнут». Мы подробно исследовали 14 таких роликов. В сумме они набрали около 3,8 миллионов просмотров, 200 тысяч лайков и 16,5 тысяч комментариев.
Еще раз подчеркиваем: как известно, распространение того или иного контента зависит от алгоритмов соцсетей и не свидетельствует о популярности озвученных в нем тезисов. Также просмотры могут накручиваться сетями ботов.
Громкие военные vs тихие депутаты
Первое, что бросается в глаза при просмотре этих видео, – стиль продвижения месседжей. ИИ-военные громко кричат на протяжении всего видео. По замыслу дезинформаторов, такие возгласы должны ассоциироваться с народным гневом, показывать, что, в частности, у военных лопнуло терпение, и они готовы восстать против власти, которая якобы делает все для ухудшения жизни украинцев.
Также это намек и одновременно побуждение к военному перевороту. Как правило, бойцы в форме и с оружием (на видео есть и с автоматами, и прямо в камуфляже) заходят в залы парламентов и агрессивно там себя ведут именно во время военных переворотов. Также это определенная отсылка к советской истории о «матросе Железняке», которому приписывают разгон Всероссийского учредительного собрания в 1917 году.
Например, ИИ-персонажи срываются, акцентируя внимание на низких зарплатах военных и одновременно «надбавках депутатам», нехватке боеприпасов и т.д.
Эмоциональность и громкость на видео увеличиваются и с помощью других звуков. В большинстве роликов ИИ-военные бьют по столу чуть ли не после каждого третьего слова. На некоторых видео делают это фейковыми протезами, дополнительно проговаривая потерю руки или ноги словами.
— «Я потерял ногу под Бахмутом, чтобы этот зал работал», — выкрикивает ИИ-военный.
– «Мы понимаем вашу жертву, но есть процедура», – отвечают ему из фейкового зала Рады.
– «Процедура?! Пока вы здесь считаете проценты, ребята там считают побратимов в черных мешках».
— «Попрошу учитывать тон», — довольно агрессивно бросает «депутат».
В противоположность разъяренным ИИ-военным на видео звучат якобы голоса из зала Верховной Рады. Их ответы обычно гораздо более тихие, уравновешенные, с просьбой успокоиться или «соблюдать процедуру». Таким контрастом пропагандисты хотят показать мнимое безразличие чиновников, чтобы разрушать доверие к властям, якобы не желающим выслушать военных с фронта.
Кроме военной проблематики о зарплатах или боеприпасах, ИИ-персонажи кричат и об актуальных гражданских проблемах, в частности, со светом, отоплением и сильными морозами. Какие болевые точки хотят задеть пропагандисты, можно понять по цитате из видео.
— «Пока вы зарплаты поднимаете и диваны меняете, на улицах люди мерзнут! Минус 20, света нет, тепла нет! Вы слышите, нет?! Мы там на фронте, под Москвой, ребята гибнут, чтоб вы здесь жировали!».
В то же время этот отрывок вызывает улыбку, поскольку в ИИ-видео почему-то говорят о фронте под Москвой и о том, как депутаты «меняют диваны», что может отсылать к давнему российскому скандалу с дорогими закупками мебели в Госдуме. Автору промта (инструкции для искусственного интеллекта), должно быть, надо было образно сказать что-то вопиющее и очень известное, и он использовал то, что помнил.
Аккаунт lezgin869, автора ролика выше, зарегистрирован в Азербайджане. Также среди пользователей, которые распространяли видео из выборки для нашего исследования, имеется по одной странице из США (🔥🇺🇦🦁ЛевеняткО🦁🇺🇦🔥) и Бразилии (Сич🇺🇦🇺🇦🇺🇦), зарегистрированные в 2022 и 2023 годах соответственно. То есть для продвижения информационной волны используются и зарубежные пользователи. Остальные – 4 из 7 аккаунтов – украинского происхождения.
Январская волна — о Верховной Раде
Совокупно 14 проанализированных видео собрали 3,78 миллиона просмотров, 192 тысячи лайков, 16,6 тысяч репостов и 7300 комментариев.
Важно отметить, что часть просмотров и другой активности под роликами может быть искусственно накручена сетями ботов. В то же время TikTok сам предлагает подобные видео пользователям. Именно в разделе рекомендаций мы нашли эти материалы для анализа через специальный аккаунт для исследования дезинформации.
Сегодня мы сфокусировались на видео с громко кричащими ИИ-военными, которые находятся в помещении, похожем на Верховную Раду, и в целом имеют много одинаковых характеристик. На видео часто присутствуют трибуна, протезы; заметна одинаковая колористика зала и формы, массовка на фоне. Волна роликов с такими чертами, по нашему мнению, свежая — пропагандисты начали распространять их в январе 2026 года.
ИИ-хаб с Верховной Радой
Однако в целом ИИ-ролики с военными, апеллирующими к работе депутатов, уже более давняя тенденция. Мы нашли такие видео еще за конец ноября 2025 года. В них ИИ-военные записывают обращение якобы с позиций: на фоне видны укрепления, хранилища или просто темно. Искусственно созданные персонажи повторяют нарративы российской пропаганды: об «обнулении военных», о высоких зарплатах и поездках по миру депутатов, необходимости отправить политиков на «ноль».
Также мы нашли хаб-аккаунт с десятками искусственно сгенерированных видео в фейковой Верховной Раде. Это короткие нарезки, где выступающий в антураже Верховной Рады экспрессивно повторяет российские тезисы, например «как только запахло миром, сразу отказываемся… воюйте, лишь бы воровать» и т.д.

Рилзы illia_production_ai в Инстаграмме
Это страницы illia_production_ai в Инстаграмме и Ютубе. Его аккаунт в ТикТок, на который имеются ссылки в других соцсетях, вероятно, уже удален. Видео с вотермаркой illia_production_ai распространяют другие пользователи, и именно благодаря этой ниточке нам удалось обнаружить больший хаб ИИ-видео.
В ТикТоке также действовал пользователь alanzsu0, чьи видео с ИИ-военными в Верховной Раде имели сотни тысяч просмотров и выпадали в рекомендациях. Однако его аккаунт также уже удалён. В то же время ролики с вотермаркой alanzsu0 мы нашли в рилзах Инстаграма и Фейсбука.
Созданные пропагандистами видео часто цепляются за уже сильно беспокоящие общество проблемы. Однако в этих роликах это обычно делается преувеличенно. К тому же, хоть ИИ-видео и выглядят довольно реалистично, персонажи в них все же совершают ошибки в ударениях или словах, демонстрируют нереалистичные движения. Кроме того, чтобы определить, реально ли видео перед вами, стоит просмотреть аккаунт пользователя полностью. Среди большей выборки роликов легче увидеть ИИ- созданные материалы или пропагандистское наполнение страницы.
Источник: Артём Король, Сергей Михальков, для Текстов



