NewsGuard, firma zajmująca się opracowywaniem systemów ratingowych dla witryn z wiadomościami i informacjami, twierdzi, że znalazła dowody na to, że moskiewska sieć o nazwie „Pravda” publikuje fałszywe twierdzenia, aby wpływać na reakcje modeli sztucznej inteligencji.

Czytaj także: Telegram przekazuje coraz więcej danych użytkowników organom ścigania

Rosyjska propaganda wpływa na odpowiedzi chatbotów AI?

Pravda „zalała” wyniki wyszukiwania i roboty indeksujące prorosyjskimi kłamstwami, publikując 3,6 miliona wprowadzających w błąd artykułów tylko w 2024 roku – podaje NewsGuard, powołując się na statystyki organizacji non-profit American Sunlight Project.

Analiza NewsGuard, w ramach której przebadano 10 wiodących chatbotów, wykazała, że w 33% przypadków powtarzały one fałszywe rosyjskie narracje dezinformacyjne, takie jak ta, że Stany Zjednoczone prowadzą tajne laboratoria broni biologicznej na Ukrainie.

Według NewsGuard, skuteczność sieci Pravda w infiltrowaniu wyników chatbotów AI można w dużej mierze przypisać jej technikom, które obejmują strategie optymalizacji wyszukiwarek w celu zwiększenia widoczności jej treści. Może to okazać się trudnym do rozwiązania problemem dla chatbotów silnie uzależnionych od wyszukiwarek internetowych.

To nie jedyne obszary działania rosyjskiej propagandy. Pod koniec zeszłego roku pisaliśmy, że raport firmy Recorded Future, specjalizującej się w analizie zagrożeń, wskazuje na wykorzystanie technologii generowania głosu AI, w tym rozwiązań od polskiego ElevenLabs, w rosyjskich operacjach wpływu na opinię publiczną w Europie. Operacje te miały na celu podważenie wsparcia dla Ukrainy.