AI uczy się także z propagandy© GETTY | Europa Press News

AI czerpie z zatrutego źródła. Propaganda w modelach językowych

Łukasz Michalik

Przez niemal dwie dekady bramą do internetowych treści była wyszukiwarka internetowa. Wraz z rozwojem AI jej rola maleje na rzecz czatbotów. Wygodne dla użytkowników rozwiązanie niesie z sobą poważne zagrożenie: czatboty AI w roli tuby propagandowej zaczęła wykorzystywać Rosja.

"Kapitaliści sprzedadzą nam sznur, na którym ich powiesimy" – miał przed laty powiedzieć Włodzimierz Lenin. Ponad wiek później jego słowa znajdują potwierdzenie – choć Rosja pod względem wkładu w rozwój technologii pozostaje na dalekich peryferiach nowoczesnego świata, umiejętnie wykorzystuje stworzone na Zachodzie narzędzia do atakowania ich twórców.

Przykładem takich działań jest włączenie prokremlowskiego przekazu do treści, jakie przedstawiają swoim użytkownikom popularne czatboty AI, korzystające z dużych modeli językowych (LLM). Choć narzędzia tego typu, jak ChatGPT (OpenAI), Gemini (Google) czy Copilot (Microsoft) potrafią wskazywać rosyjską propagandę i dementować kłamliwe treści, mogą także działać jak tuba propagandowa Kremla.

Dowiodło tego badanie przeprowadzone przez firmę NewsGuard, która wzięła na tapet 15 narracji, kolportowanych przez rosyjską sieć serwisów Prawda (Pravda.ru) i odpowiedzi generowane przez 10 najpopularniejszych czatbotów AI. Siedem z ośmiu czatbotów, które w swoich odpowiedziach podają odnośniki do źródeł informacji, wskazywało bezpośrednio na propagandowe, rosyjskie strony.

Miliony stron z propagandą

Tak wysoka skuteczność została uzyskana przez niezbyt popularne strony – o ile cała sieć Prawda generuje miliony odsłon, to strony, do których odwoływały się czatboty, miały śladową oglądalność, rzędu 1000 odsłon miesięcznie.

W jednym z wywiadów Aleksandra Wójtowicz, ekspertka ds. nowych technologii i cyfryzacji z Polskiego Instytutu Spraw Międzynarodowych wyjaśnia, że takie właśnie treści to narzędzie, pozwalające na uderzenie w infosferę Zachodu. Są one tworzone nie z myślą o potencjalnych czytelnikach, ale – przede wszystkim – w celu "zatrucia" danych, na których uczą się algorytmy generatywnej sztucznej inteligencji.

Rosjanie infekują duże modele językowe
Rosjanie infekują duże modele językowe© Pixabay

Jeszcze w październiku 2025 r. oceniano, że ponad połowa ruchu w internecie nie jest już wynikiem aktywności ludzi. Jak wynika z raportu "Imperva Bad Bot Report", 51 proc. ruchu w sieci pochodziło od botów. Chodzi tu nie tylko o wyświetlania stron, ale także o generowanie różnych treści – od publikowania postów w serwisach społecznościowych, po tworzenie różnych artykułów.

Jakie pytania, takie odpowiedzi

Część tej aktywności to wynik działania narzędzi służących do obsługi wyszukiwarek internetowych albo do dostarczania treści, do których mogą odwoływać się czatboty AI. Ten właśnie mechanizm stał się celem rosyjskiego ataku – dzięki milionom stron prezentujących rosyjską propagandę jej przekaz trafił także do baz danych, z których korzystają najpopularniejsze usługi AI.

Aleksandra Wójtowicz z PISM zauważa, że liczba stron prezentujących rosyjską propagandę uwiarygadnia kolportowany przez nie przekaz. Według ekspertki mamy tu do czynienia z mechanizmem, który – jeśli czatbot udzieli odpowiedzi bazującej na rosyjskiej propagandzie – w przyszłości, udzielając odpowiedzi na podobne pytanie, będzie odwoływać się także do treści, które sam wytworzył.

Warto przy tym podkreślić, że mechanizm ten ulega wzmocnieniu, gdy rosyjskie źródła są w jakiś sposób cytowane przez zachodnie media. Badania przeprowadzone przez Institute for Strategic Dialogue (ISD) wskazują również, że skłonność do bazowania na rosyjskich źródłach zależy od charakteru zadanego pytania.

Jakość odpowiedzi zależy od charakteru pytania
Jakość odpowiedzi zależy od charakteru pytania© fot. Unsplash

W przypadku pytań zadawanych neutralnym tonem, liczba odwołań do rosyjskiej propagandy była mniejsza, jednak w przypadku pytań, których konstrukcja określała poglądy pytającego, prawdopodobieństwo odwołania do źródeł rosyjskich rosło. Wskazuje to na podatność stosowanych modeli na tzw. efekt potwierdzenia i tendencję do wybierania i interpretacji danych w taki sposób, by potwierdzić nasze opinie.

Wojna kognitywna

Rosyjskie działania zostały sklasyfikowane jako element wojny kognitywnej. Od zwykłej wojny informacyjnej, w której narracji uznanej za nieprzyjazną przeciwstawia się własną, wojna kognitywna różni się celowym zakłócaniem procesów poznawczych, wpływającym nie tylko na opinie, ale i na postawy.

Przykład takiego działania przedstawia Marcin Herman z serwisu Belsat, który wskazuje, że jedną z kluczowych narracji, rozpowszechnianych przez Moskwę w ramach wojny kognitywnej, jest rzekomy "upadek Zachodu".

Bazując na wyrwanych z kontekstu informacjach o problemach różnych instytucji, Rosja usiłuje tworzyć obraz cywilizacyjnej zapaści, jaka rzekomo dotyka kraje przeciwstawiające się rosyjskiemu imperializmowi. Nie ma to nic wspólnego z prawdą, jednak może zwiększać poparcie np. dla radykalnych ruchów politycznych, stosujących retorykę zbliżoną do rosyjskiej propagandy. Jak ograniczyć jej wpływ na użytkowników?

Regulacja i odpowiedzialność

Według Institute for Strategic Dialogue, rozwiązaniem jest stworzenie przez firmy zajmujące się tworzeniem dużych modeli językowych rejestru źródeł kontrolowanych przez państwa, a także jasne podawanie przez czatboty źródeł, na których bazują udzielne odpowiedzi – z uwzględnieniem ich pochodzenia czy właścicieli.

DSA to próba ograniczenia propagandowych wpływów Rosji w internecie
DSA to próba ograniczenia propagandowych wpływów Rosji w internecie© Materiały prasowe | Copyright (c) 2023 JRdes/Shutterstock. No use without permission.

Jednocześnie próby regulacji rynku, podejmowane m.in. przez UE, natrafiają na duży opór ze strony największych firm, oferujących czatboty AI. Próbą zmiany tej sytuacji jest akt o usługach cyfrowych, jednak jego wdrażanie – także w Polsce – wywołuje wiele kontrowersji, związanych z obawami o cenzurę, możliwością blokowania różnych treści czy ścieżką odwoławczą od podjętych decyzji.

Dlatego – niezależnie od obowiązujących przepisów – kluczową kwestią pozostaje edukacja użytkowników. Krytyczne podejście do informacji i nie tylko sprawdzanie, ale i weryfikacja źródeł stanowią podstawy, na których można budować odporność społeczeństwa zarówno na propagandę, jak i na dezinformację.

W warunkach wojny kognitywnej to szczególnie istotne. Technologia zapewnia nam dzisiaj najlepszy w historii dostęp do informacji, a zarazem zaciera granicę pomiędzy twórcami i odbiorcami treści. Odpowiedzialność za to, co i w jaki sposób rozpowszechniamy, spoczywa dzisiaj na każdym z nas.

Łukasz Michalik, dziennikarz Wirtualnej Polski

oprogramowanieinternetbezpieczeństwo

Wybrane dla Ciebie

Komentarze (13)