Lech Rustecki

Rosyjskie operacje wpływu nie tylko produkują fałszywe filmy i audio, ale także celowo zatruwają Internet treściami, które mają kształtować odpowiedzi chatbotów. W efekcie dezinformacja przestaje być jedynie treścią – staje się częścią danych treningowych sztucznej inteligencji, tworząc zupełnie nowy poziom zagrożenia informacyjnego.

Rosyjska machina propagandowa wkroczyła w nową fazę – fazę sztucznej inteligencji. W latach 2023-2025 na wielu frontach zaobserwowano przypadki, gdy narzędzia AI zostały wykorzystane do tworzenia i szerzenia dezinformacji wspierającej Kreml. Deepfake’i wideo i audio, generatywne modele językowe, klonowanie głosu oraz zautomatyzowane boty zasilane AI stały się częścią arsenału w wojnie informacyjnej. Skala tych działań jest bezprecedensowa – od mieszania w polskiej polityce wewnętrznej, poprzez próby złamania morale Ukraińców, aż po wpływanie na opinię publiczną całej Europy i USA. Jednocześnie rośnie świadomość zagrożeń i próby reakcji – wykrywanie fałszerstw staje się priorytetem dla służb i mediów, a eksperci apelują o „cyfrową czujność”. W niniejszym artykule analizujemy, jak rosyjskie operacje dezinformacyjne ewoluowały wraz z rozwojem narzędzi AI, wykorzystując konkretne studia przypadków z ostatnich lat. Przedstawiamy także prognozy na przyszłość i spojrzenie na działania twórców wiodących modeli AI wobec zagrożenia dezinformacją.

Deepfake’i jako broń propagandy – od Polski po Ukrainę

Rosja bardzo szybko przetestowała deepfake’i wideo przeciw Ukrainie po rozpoczęciu inwazji. Już w marcu 2022 r. pojawiło się fałszywe nagranie, na którym prezydent Wołodymyr Zełenski rzekomo ogłasza kapitulację Ukrainy i wzywa armię do złożenia broni. Jakość tej podróbki była niska – nienaturalnie duża, nieruchoma twarz prezydenta nałożona na ciało i słabe dopasowanie ruchu ust – jednak propagandyści próbowali zwiększyć wiarygodność przekazu, hakując paski informacyjne ukraińskiej telewizji, by wyświetlały apel o poddanie się. Choć oszustwo szybko zidentyfikowano i prezydent Zełenski osobiście zdementował „wiadomość”, rosyjskie kanały chwaliły się, że kilku ukraińskich żołnierzy dało się nabrać i faktycznie złożyło broń. Ten incydent pokazał zarówno potencjał, jak i ograniczenia ówczesnych deepfake’ów – ich wiarygodność dla masowego odbiorcy była jeszcze niewielka.

Technologia jednak rozwija się błyskawicznie. W listopadzie 2023 r. prokremlowskie źródła opublikowały serię trzech spreparowanych filmów, w których generał Wałerij Załużny (dowódca Sił Zbrojnych Ukrainy) oskarża Zełenskiego o doprowadzenie do śmierci własnego doradcy i sugeruje, że sam może nie dożyć kolejnych dni. Celem było oczywiście zasiać konflikt między wojskiem a prezydentem. Tym razem jakość deepfake’ów była wyraźnie lepsza niż w przypadku fałszywego Zełenskiego z 2022 r. – postać Załużnego wyglądała dość naturalnie, ruchy i mimika były płynniejsze, choć eksperci wciąż dostrzegli drobne anomalie (np. minimalne niesynchronizowanie ruchu ust z dźwiękiem). Dla niewprawnego widza takie wideo mogło jednak wyglądać przekonująco. Rozwój ten pokazuje, jak ewoluuje arsenał deepfake’ów – od topornych montaży po coraz sprawniejsze imitacje znanych osób.

Kolejnym przykładem była próba ukierunkowanego ataku na wąską grupę odbiorców – w tym wypadku zagranicznych ochotników walczących po stronie Ukrainy. Rosyjscy hakerzy na początku 2024 r. podszyli się pod byłego prezydenta Petra Poroszenkę podczas telekonferencji z żołnierzami Międzynarodowego Legionu Obrony Ukrainy. W zaaranżowanym połączeniu audio-wideo „Poroszenko” (generowany przez AI) wygłaszał prowokacyjne komentarze przeciw Zełenskiemu, próbując skłócić legionistów z obecnym rządem. Całą intrygę ujawnił Kyiv Independent – okazało się, że za operacją stali rosyjscy specjaliści od dezinformacji, a rzekome „zakłócenia sieci” podczas rozmowy miały maskować niedoskonałości deepfake’u. Ten incydent udowodnił, że deepfake’i można wykorzystać również do precyzyjnych ataków skierowanych do określonych społeczności lub grup, szytych na miarę konkretnej sytuacji.

Deepfake’i na froncie wojennym szczególnie niepokoją, bo zacierają granicę między prawdą a fałszem. W Ukrainie od dawna ostrzegano, że Rosja będzie wykorzystywać takie techniki do siania zwątpienia – i faktycznie tak się stało. Oprócz w pełni generowanych fałszywek pojawiały się też prostsze manipulacje: przeróbki prawdziwych nagrań czy inscenizacje z udziałem aktorów. Jednym z głośniejszych przykładów był film, który miał rzekomo pokazywać ukraińskich żołnierzy strzelających do kobiety z dzieckiem – później ujawniono, że powstał na terytorium okupowanym przez Rosję z udziałem podstawionych osób. Takie działania sprawiły, że każdy materiał wideo z frontu zaczęto traktować z rosnącą podejrzliwością.

Rosyjska dezinformacja wykorzystuje klonowanie głosu i syntezę audio. W 2024 r. W mediach społecznościowych pojawił się spreparowany klip, w którym rzekomy Greg Abbott chwali Putina – słowa wygenerowano syntetycznie, a manipulację potwierdziły Fox News i biuro gubernatora Teksasu. Nagranie uderzało w amerykańską prawicę, sugerując, że republikański polityk popiera Kreml.

W 2024 r. prokremlowskie kanały wypuściły fałszywe nagranie o rzekomym spisku ukraińskich służb na życie Tuckera Carlsona. Analiza wykazała cyfrową manipulację obrazem i dźwiękiem. Celem było skompromitowanie Ukrainy i wzniecenie oburzenia wśród konserwatywnych odbiorców w USA.

Warto wspomnieć, że w 2023 r. odkryto również zakrojoną na szeroką skalę operację wpływu na TikToku i innych platformach, prowadzoną w języku angielskim. W jej ramach stworzono tysiące propagandowych filmów w co najmniej 7 językach, oskarżających ukraińskie władze o korupcję. Wszystkie te filmy łączył jeden szczegół: lektor mówiący neutralnym, pozbawionym akcentu głosem generowanym przez AI. Chodziło o to, by ukryć rosyjskie pochodzenie tych treści – dzięki syntezie mowy trolle z fabryki w Petersburgu mogli udawać „zwykłych ludzi” z różnych krajów, dzielących się rzekomo oddolnymi opiniami. To kolejny front, na którym sztuczna inteligencja służy dezinformacji – agresor dosłownie przemawia głosem lokalnych społeczności, by zwiększyć wiarygodność kłamstw.

Generatywna AI napędza fake newsy – teksty, klony mediów i „grooming” modeli

Rosyjska dezinformacja wykorzystuje sztuczną inteligencję nie tylko do fałszowania obrazów i głosów, lecz także do masowego tworzenia zmanipulowanych tekstów. Duże modele językowe pozwalają propagandystom generować przekonujące artykuły i komentarze oraz wpływać na same algorytmy poprzez manipulowanie treściami w sieci. Przykładem jest sieć stron „Prawda”, publikujących w wielu językach, także po polsku, powtarzalną prorosyjską propagandę. Choć witryny te mają niewielu realnych odbiorców, ich celem jest „zatruwanie” internetu tak, by modele AI uznawały te narracje za wiarygodne. Według NewsGuard w 2023 r. aż jedna trzecia odpowiedzi czołowych chatbotów zawierała elementy rosyjskiej dezinformacji, wynikające z uczenia się na takich właśnie treściach.

To zjawisko zostało nazwane „groomingiem LLM” – celowym „wychowywaniem” modeli AI na propagandowych danych. Dowód skuteczności? ChatGPT i inne boty potrafiły cytować zmyślone rosyjskie źródła czy powielać tezy o „nazistach w Ukrainie” lub o „winnej Polsce” bez żadnego ostrzeżenia. Innymi słowy, dezinformacja wkroczyła na systemowy poziom – zamiast docierać do odbiorcy tylko przez artykuł czy film na Facebooku, może zostać wygenerowana na jego własne żądanie przez pozornie neutralną sztuczną inteligencję. Walka z propagandą przeniosła się tym samym na front dbania o jakość danych treningowych dla AI oraz uświadamiania zagrożeń związanych z odpowiedziami modelów.

Rosja wykorzystuje generatywną AI do produkcji nowoczesnej dezinformacji. Operacja „Doppelganger” (2022-2023) polegała na tworzeniu dziesiątek stron wyglądających jak renomowane zachodnie media, m.in. Le Monde, The Guardian czy Bild. Na ich łamach publikowano fałszywe artykuły oczerniające Ukrainę, uchodźców i NATO, a całość wspierała sieć fikcyjnych kont w mediach społecznościowych.

USA wskazały dwóch Rosjan – Iliję Gambaridze i Nikołaja Tupikina – jako koordynatorów kampanii. Dzięki narzędziom AI mogli masowo produkować treści w wielu językach. Analizy wykazały, że artykuły tworzone przez AI były językowo poprawne i stylizowane na profesjonalne dziennikarstwo, co utrudniało wykrycie fałszu.

„Doppelganger” pokazuje, że Rosja buduje całą infrastrukturę – fałszywe portale, boty i sieci AI – by podważać zaufanie do zachodnich mediów i szerzyć propagandę w sposób trudniejszy do wykrycia dla przeciętnego odbiorcy.

Generatywna AI została w 2025 r. wykorzystana na Litwie do masowej produkcji wiarygodnych deepfake’ów, w których podrobieni politycy i lekarze promowali teorie spiskowe oraz „cudowne” specyfiki. Fałszywe nagrania – stylizowane na fragmenty wywiadów telewizyjnych – szybko rozeszły się po Facebooku w kilkunastu krajach UE, wprowadzając w błąd setki tysięcy osób. Kampania okazała się międzynarodowym oszustwem finansowym: cyberprzestępcy straszyli m.in. szczepionkami, by nakłonić odbiorców do klikania w linki i zakupu podejrzanych preparatów. Antyszczepionkowi aktywiści, nieświadomie wzmacniając przekaz, sami udostępniali fałszywki. Litewskie służby szybko namierzyły i zablokowały ok. 20 kont, ale sprawa pokazała, jak niebezpiecznie zaawansowane stały się deepfake’i i jak łatwo łączą się dziś manipulacja z wyłudzeniem.

Twórcy modeli AI kontra dezinformacja: ChatGPT, Gemini, Grok, Perplexity, DeepSeek, Mistral

Dynamiczny rozwój dużych modeli językowych (LLM) sprawił, że na rynku pojawiły się zaawansowane chatboty zdolne do generowania odpowiedzi na niemal dowolne pytanie. Modele takie jak OpenAI ChatGPT, Google Gemini, Meta LLaMa (np. w formie asystenta Meta AI), Anthropic Claude, xAI Grok, Perplexity AI czy chiński DeepSeek – wszystkie one rywalizują możliwościami. Jednak ich twórcy stoją przed poważnym wyzwaniem: jak zapobiec, by te AI nie stały się narzędziami dezinformacji albo nie szerzyły nieświadomie fałszywych narracji? Pytanie to jest tym pilniejsze, że miliony ludzi zaczynają traktować chatboty jako źródło informacji – zastępując nimi tradycyjne wyszukiwarki czy media.

„Dotychczasowe testy dają niejednoznaczny obraz skuteczności zabezpieczeń – z jednej strony NewsGuard już w połowie 2023 r. wykazał, że popularne chatboty były podatne na przemycanie rosyjskich narracji (statystyka mówiła wówczas o około 33 % skażonych odpowiedzi). Z drugiej strony najnowszy raport NewsGuard z sierpnia 2025 r. pokazuje, że w dziesięciu wiodących narzędziach AI udział powtarzania fałszywych twierdzeń wzrósł do 35 %. Dane z sierpnia 2024 r. wykazywały natomiast wskaźnik 18 % – co oznacza niemal podwojenie w ciągu roku. Według autorów raportu wzrost ten można tłumaczyć tym, że systemy AI zaczęły intensywnie wykorzystywać wyszukiwania w czasie rzeczywistym (ich odsetek odmów odpowiedzi spadł z 31 % w 2024 r. do 0 % w 2025 r.), co przełożyło się na większą ekspozycję na „zanieczyszczone” źródła – w tym witryny o niskim zaangażowaniu, wpisy social media oraz farmy generujących treści AI, które modele nie potrafiły skutecznie odróżnić od wiarygodnych mediów.

Prognozy, rekomendacje i ostrzeżenie na przyszłość

Przypadki z lat 2022-2025 ukazują jednoznacznie, że połączenie dezinformacji i sztucznej inteligencji będzie w nadchodzących latach jednym z największych wyzwań dla bezpieczeństwa informacyjnego. Rosja – ale także inne reżimy – pokazała gotowość do korzystania z najnowszych zdobyczy technologii, aby siać chaos, wpływać na demokracje i realizować własne cele geopolityczne. Co nas czeka dalej? Jakie trendy mogą się zarysować do 2030 roku? Oto kilka prognoz oraz rekomendacji, jak się przygotować.

Deepfake’i będą coraz bardziej realistyczne i dostępne nawet na domowych komputerach, także w wersji „na żywo”, pozwalającej podszywać się pod kogoś w trakcie transmisji. To stworzy ryzyko skoordynowanych ataków informacyjnych, np. jednoczesnych fałszywych wystąpień światowych liderów, które mogą wywołać panikę, zanim zostaną zdementowane. Dlatego potrzebne są procedury szybkiej weryfikacji autentyczności kluczowych komunikatów, inwestycje w technologię wykrywania deepfake’ów i oficjalne kanały, gdzie obywatele mogą natychmiast sprawdzić prawdziwość nagrań.

Rosja już wykorzystuje AI do lokalizowania propagandy (np. operacja Doppelganger). Wkrótce modele będą generować spersonalizowane przekazy dla konkretnych grup czy nawet pojedynczych osób, co utrudni wykrywanie dezinformacji, bo każdy odbiorca zobaczy inny wariant narracji. Aby przeciwdziałać takim kampaniom, potrzebne są zaawansowane narzędzia analizy Big Data, które agregują i porównują treści z mediów społecznościowych w celu identyfikacji powtarzalnych wzorców. Platformy społecznościowe powinny udostępniać badaczom odpowiednie dane.

Ataki na zaufanie do prawdy rosną: im więcej deepfake’ów, tym większe społeczne zwątpienie nawet w autentyczne materiały. „Efekt Deepfake” sprawia, że każdy może podważyć prawdę, np. polityk tłumaczący skandal rzekomą fałszywką. To prowadzi do erozji wspólnej rzeczywistości, zgodnej z interesem Kremla. Rozwiązania: wprowadzać cyfrowe podpisy i certyfikaty autentyczności ważnych treści, edukować o istnieniu fałszywek i dowodów autentyczności oraz wzmacniać standardy weryfikacji w mediach.

Rosyjska propaganda przeniesie się tam, gdzie pojawiają się nowi odbiorcy i słabszy nadzór — m.in. do metawersum, VR i gier online. AI umożliwi tworzenie syntetycznych influencerów, czyli wygenerowanych postaci szerzących dezinformację. Dlatego monitoring powinien objąć także nowe platformy, a twórcy technologii VR powinni wcześniej wdrażać mechanizmy zgłaszania i weryfikacji treści.

Na koniec, ostrzeżenie: Połączenie sztucznej inteligencji i dezinformacji to zagrożenie, którego skali dopiero zaczynamy się domyślać. Jeśli nie zareagujemy odpowiednio, możemy stanąć w obliczu rzeczywistości, w której fałszywe, lecz perfekcyjnie wykonane przekazy będą zalewać przestrzeń publiczną każdego dnia. Wyobraźmy sobie rok 2030: wybory w kluczowym kraju sojuszu, a tydzień przed głosowaniem dochodzi do „wycieku” setek filmów, nagrań audio i dokumentów – część z nich prawdziwa, część sztucznie spreparowana. Mieszają się w jedno, powodując totalny chaos informacyjny. Obywatele nie są w stanie odróżnić, które rewelacje o kandydacie są prawdziwe, a które to brudna zagrywka służb obcego państwa. Taki scenariusz jest realny. Dlatego musimy już dziś inwestować w tarczę i miecz: tarczę – czyli edukację, wykrywanie, legislację – oraz miecz – aktywne ujawnianie i neutralizowanie sprawców tych kampanii.

Przyszłość przyniesie zapewne jeszcze bardziej zaawansowane AI – ale również lepsze metody jej kontroli. To wyścig zbrojeń informacyjnych, w którym nie możemy sobie pozwolić na pozostawanie w tyle. Zachowajmy zdrowy sceptycyzm, wspierajmy rzetelne dziennikarstwo i domagajmy się odpowiedzialności od gigantów technologicznych. Prawda w epoce AI wymaga obrony – zorganizowanej, inteligentnej i zdecydowanej.