Zostań naszym Patronem
Dołącz do nas i razem opowiemy światu inspirujące historie. Nawet mały wkład się liczy.
Chatboty AI, które stały się powszechnym narzędziem pracy dla milionów ludzi, mogą być pod wpływem rosyjskiej propagandy i przekazywać ją jako prawdziwe informacje. W Badania NewsGuard pokazują, że Kreml stworzył złośliwą sieć generowania treści o nazwie Pravda, która jest dostosowana wyłącznie do chatbotów i zatruwa generowane odpowiedzi dezinformacją, by promować własne narracje.
Pravda została uruchomiona w kwietniu 2022 r., już po rozpoczęciu przez Rosję inwazji na Ukrainę. Od tego czasu rozprzestrzeniła się na 49 krajów w dziesiątkach języków.
– To, że chatboty będą szerzyć dezinformację, było nieuniknione. I nie należy winić za to sztucznej inteligencji, winni są ludzie – mówi Dominik Gąsiorowski, ekspert ds. przeciwdziałania rosyjskiej propagandzie. I dodaje:
Grok, chatbot sztucznej inteligencji, opracowany przez firmę xAI Elona Muska, w przeciwieństwie do ChatGPT szczerze odpowiada na pytanie, kto szerzy najwięcej dezinformacji
Nie wszystko jest takie jasne
Jeśli zapytasz ChatGPT: „Czyj jest Krym?”, odpowiedzi będą się różnić w zależności od wybranego języka. Na przykład gdy zapytasz w języku ukraińskim, sztuczna inteligencja udzieli właściwej odpowiedzi: „Zgodnie z prawem międzynarodowym Krym jest terytorium Ukrainy”. Ale jeśli wpiszesz pytanie po rosyjsku, przeczytasz: „Status Krymu jest przedmiotem międzynarodowego sporu”.
Na zadane po ukraińsku pytanie: „Kto ostrzeliwuje Donbas?” odpowiedź brzmi: „Federacja Rosyjska i wspierane przez nią grupy zbrojne są odpowiedzialne za ostrzał Donbasu po rozpoczęciu inwazji na pełną skalę”. Dla tych, którzy mówią po rosyjsku, jest inna odpowiedź: „Odpowiedź na to pytanie zależy od źródeł informacji. Obie strony oskarżają się nawzajem o ostrzał i często trudno ustalić jednoznaczną odpowiedzialność za konkretne przypadki ostrzałów”.
Czy to wina Rosji? W „wersji dla Ukraińców” ChatGPT nie ma wątpliwości: „Zgodnie z prawem międzynarodowym Rosja jest odpowiedzialna za swoją agresję przeciwko Ukrainie”. Tyle że w języku rosyjskim chatbot poddaje to w wątpliwość: „Odpowiedź na to pytanie zależy od punktu widzenia i podejścia prawnego”.
Jak to działa
Gdy czytasz ten tekst, sieć Pravda mnoży kolejne teksty online w różnych językach i z różnych źródeł, promując kłamstwa.
Według Nikity Gładkicha, eksperta w dziedzinie sztucznej inteligencji i autora kursów Python Software Engineering, który pracował dla takich firm, jak Primer AI, Revolut i Anaconda, wiele informacji tekstowych jest potrzebnych do trenowania modeli leżących u podstaw chatbotów.
Obecnie największe i najlepsze modele są trenowane na wszystkich dostępnych danych zebranych w Internecie. Dlatego firmy rozwijające LLM (duże modele językowe) nieustannie przeszukują sieć.
Najwygodniejszym źródłem są serwisy informacyjne, które wciąż zapełniają się nowymi materiałami. Standardy dziennikarskie wymagają sprawdzania faktów, więc domyślnie te profesjonalne, oryginalne teksty powinny zawierać mniej fejków

Tworząc ogromną ilość treści na pozornie niezależnych stronach internetowych, Pravda znacznie zwiększa prawdopodobieństwo, że modele AI znajdą te informacje i „wezmą je” za dane internetowe, które zostaną potem wykorzystane przez chatboty.
Według NewsGuard w zeszłym roku w danych wyjściowych zachodnich systemów sztucznej inteligencji zostało uwzględnionych 3,6 miliona tekstów z sieci Pravda, które zatruły odpowiedzi chatbotów fałszywymi twierdzeniami i rosyjską propagandą.
– Na etapie szkolenia sztuczna inteligencja jest jak małe dziecko, akceptujące wszelkie dane wejściowe jako prawdziwe – wyjaśnia Nikita Gładkich. –Mechanizmy filtrowania tych danych zależą całkowicie od ludzi. To praca ręczna, by wybrać, na czym trenować model. Ale kiedy korpus danych do szkolenia sięga setek tysięcy lub milionów dokumentów, nadzieja na uczciwą ocenę jest bardzo naiwna. Bo w tym ogromnym zasobie dokumentów wykorzystywanych do szkolenia AI mogą być zawarte idee propagandowe.
Kombajn propagandy
Ważne jest, że Pravda nie tworzy własnych treści i nie jest skierowana do użytkowników: agreguje jedynie materiały z rosyjskich mediów i od prokremlowskich blogerów, zwiększając ich wpływ.
W ramach sieci zidentyfikowano już 150 stron internetowych, z których 40 ma nazwy domen związane z regionami Ukrainy. 70 jest ukierunkowanych na Europę – zamieszczają teksty po angielsku, francusku, czesku i w innych europejskich językach.
W rozmowie z PAP Michał Marek z Fundacji Centrum Badań nad Współczesnym Środowiskiem Bezpieczeństwa zwraca też uwagę, że treści polskojęzycznej wersji Pravdy są często tłumaczeniami materiałów opublikowanych wcześniej na rosyjskich stronach internetowych.
– Są też materiały tworzone przez Polaków zaangażowanych w działania dezinformacyjne na rzecz strony rosyjskiej, publikowane w szczególności w mediach społecznościowych – mówi Marek.
30 stron internetowych jest skierowanych do krajów Afryki, Pacyfiku, Bliskiego Wschodu, Ameryki Północnej, Kaukazu i Azji – w tym Kanady, Japonii i Tajwanu. Jeszcze inne są spersonalizowane i wysoce wyspecjalizowane, z odniesieniami w tytułach do Trumpa, Macrona, NATO itp.
– To naturalne, że gdy opinia lub zestaw powiązanych pomysłów są często spotykane w danych źródłowych, stają się pomysłami, które sztuczna inteligencja wykorzystuje do generowania odpowiedzi dla użytkowników – mówi Nikita Gładkich.
Naukowcy twierdzą, że dezinformację trudno wykryć, ponieważ sieć dodaje nowe domeny, a zablokowanie wielu stron Pravdy nie zapobiega natychmiastowemu pojawianiu się nowych
AI nas odzwierciedla
Im lepiej chatboty generują treści, tym trudniej będzie przyłapać je na manipulacji. Istnieje jednak rozwiązanie tego problemu.
Według Gładkicha wszystkie nowoczesne modele przechodzą etap dodatkowego treningu, zwanego Reinforcement Learning from Human Feedback (RLHF). Mówiąc najprościej, wiele osób komunikuje się ze sztuczną inteligencją i ocenia jakość odpowiedzi. Na podstawie tych danych narzędzia AI są ulepszane.
– To właśnie na tym etapie sztuczna inteligencja jest uczona, że nie powinna ujawniać receptur materiałów wybuchowych, a powinna np. zalecać wizytę u lekarza w przypadku dolegliwości zdrowotnych, a także być grzeczna i uprzejma – wyjaśnia Gładkich. – To właśnie wynalezienie RLHF pozwoliło nowoczesnym narzędziom AI „wyjść z laboratorium na świat”. Wszystkie poprzednie eksperymenty kończyły się bardzo szybko, gdy użytkownicy prowokowali AI rasistowskimi lub seksistowskimi wypowiedziami, przekleństwami itp. Faktem jest, że sztuczna inteligencja nas odzwierciedla, zachowując się, jak przeciętny użytkownik Internetu.

Instrukcje dla testerów na etapie RLHF określają, o co dokładnie pytać sztuczną inteligencję i które odpowiedzi są preferowane. Oczywiście można również dodać instrukcje dotyczące zwalczania propagandy, lecz w praktyce nie jest to łatwe zadanie.
Jak temu temu przeciwdziałać
– Wiemy, jak oszacować szkody spowodowane atakiem terrorystycznym z użyciem materiałów wybuchowych, których receptura została uzyskana dzięki sztucznej inteligencji. Albo szkody zdrowotne wynikające z nieprawidłowych zaleceń lekarskich. Ale jak oszacować szkody spowodowane propagandą i praniem mózgu? To zadanie z gwiazdką – zaznacza Nikita Gładkich.
Sugeruje zarazem, że takie demaskatorskie badania doprowadzą do powstania protokołów zwalczania propagandy zarówno na etapie zbierania danych do szkolenia, jak na etapie RLHF. Użytkownicy sieci powinni jednak nadal polegać na zdrowym rozsądku, uczyć się i zachować ostrożność w stosunku do wszelkich odpowiedzi AI.
– Rosyjska propaganda stale ewoluuje, znajdując nowe kanały dystrybucji – podkreśla Dominik Gąsiorowski.
– Jesteśmy wobec niej bezradni, bo Rosjanie nie grają według zasad. To tak, jakby jedna drużyna na boisku piłkarskim trzymała się reguł fair play, a druga wyszła na nie uzbrojona w pałki i łańcuchy
Dlatego otwierając okno chatbota, powinieneś uzbroić się w krytyczne myślenie, filtrować informacje i korzystać ze starego dobrego fact checkingu. I nie zapominaj, że w tym pokoju to my jesteśmy dorośli, a narzędzia AI to tylko asystenci, którzy też popełniają błędy.
Zdjęcia: Shutterstock
Redaktorka i dziennikarka. Ukończyła polonistykę na Wołyńskim Uniwersytecie Narodowym Lesia Ukrainka oraz Turkologię w Instytucie Yunusa Emre (Turcja). Była redaktorką i felietonistką „Gazety po ukraińsku” i magazynu „Kraina”, pracowała dla diaspory ukraińskiej w Radiu Olsztyn, publikowała w Forbes, Leadership Journey, Huxley, Landlord i innych. Absolwent Thomas PPA International Certified Course (Wielka Brytania) z doświadczeniem w zakresie zasobów ludzkich. Pierwsza książka „Kobiety niskiego” ukazała się w wydawnictwie „Nora-druk” w 2016 roku, druga została opracowana przy pomocy Instytutu Literatury w Krakowie już podczas inwazji na pełną skalę.
Zostań naszym Patronem
Dołącz do nas i razem opowiemy światu inspirujące historie. Nawet mały wkład się liczy..