Podczas testów Guardian zauważył, że model GPT-5.2 aż dziewięć razy cytował Grokipedię w odpowiedzi na kilkanaście różnych pytań. Dotyczyły one m.in.: struktur politycznych i gospodarczych Iranu, finansowania paramilitarnych sił Basij, własności Fundacji Mostazafan, czy biografii sir Richarda Evansa – brytyjskiego historyka, który występował jako biegły świadek w głośnym procesie o zniesławienie przeciwko Davidowi Irvingowi, negującemu Holokaust. W części przypadków ChatGPT powtarzał informacje, które – jak wykazał Guardian – były nieścisłe lub wręcz nieprawdziwe.
Znów narastają kontrowersje wokół Grokipedii
Grokipedia została uruchomiona w październiku jako generowana przez sztuczną inteligencję encyklopedia, mająca konkurować z Wikipedią. W przeciwieństwie do niej rozwiązanie Elona Muska nie umożliwia jednak bezpośredniej edycji artykułów przez ludzi, treści są generowane przez model AI, a zmiany wprowadzane są wyłącznie na podstawie zgłoszeń użytkowników.
Projekt od początku wzbudzał kontrowersje. Krytycy zarzucają Grokipedii promowanie prawicowych narracji, m.in. w kwestiach małżeństw jednopłciowych czy wydarzeń z 6 stycznia 2021 roku w USA. Encyklopedia była też wielokrotnie oskarżana o powielanie niezweryfikowanych lub fałszywych informacji.
Co istotne, ChatGPT nie cytował Grokipedii w odpowiedziach na pytania wprost dotyczące znanych teorii spiskowych czy jawnej dezinformacji – np. na temat epidemii HIV/AIDS, stronniczości mediów wobec Donalda Trumpa czy ataku na Kapitol. Źródło to pojawiało się natomiast w odpowiedziach na bardziej niszowe i niejednoznaczne pytania, gdzie użytkownik ma mniejsze możliwości samodzielnej weryfikacji.
Nowy ChatGPT cytuje Grokipedie. O co chodzi?
GPT-5.2 nie jest jedynym dużym modelem językowym, który sięga po Grokipedię. Według doniesień Guardian, również Claude – model firmy Anthropic – anegdotycznie cytował encyklopedię Muska. Firma odmówiła komentarza.
Rzecznik OpenAI zapewnia, że mechanizm wyszukiwania informacji przez ChatGPT ma na celu „czerpanie z szerokiego zakresu publicznie dostępnych źródeł i punktów widzenia”, a firma stosuje filtry bezpieczeństwa, by ograniczyć ryzyko poważnych szkód. OpenAI deklaruje także prowadzenie programów odfiltrowujących źródła o niskiej wiarygodności oraz skoordynowane kampanie dezinformacyjne.
Zdaniem badaczy zajmujących się dezinformacją sytuacja ta wpisuje się w szerszy problem znany jako „LLM grooming”. Polega on na masowym zalewaniu internetu treściami dezinformacyjnymi, które następnie mogą zostać wchłonięte przez modele AI uczące się na publicznie dostępnych danych.
Poproszony o komentarz rzecznik xAI, właściciela Grokipedii, skwitował sprawę krótko: „Tradycyjne media kłamią.”
