En Guardian-rapport har avslöjat att OpenAIs senaste AI-modell, GPT-5.2, hämtar från Grokipedia, en xAI-driven onlineencyklopedi, när den hanterar känsliga ämnen som Förintelsen och iransk politik. Även om modellen hyllas för professionella uppgifter ifrågasätter tester källornas tillförlitlighet. OpenAI försvarar sin metod genom att betona breda websökningar med säkerhetsåtgärder.
OpenAI lanserade GPT-5.2 i december som sin »mest avancerade frontier-modell för professionellt arbete«, utformad för att hantera uppgifter som att skapa kalkylblad och komplexa operationer. Undersökningar av Guardian har dock belyst potentiella brister i dess informationssourcing. Rapporten beskriver hur modellen, som nås via ChatGPT, hänvisade till Grokipedia för svar på kontroversiella ämnen, inklusive band mellan den iranska regeringen och telekomföretaget MTN-Irancell, samt frågor som involverar den brittiske historikern Richard Evans, som vittnade som expertvittne i en förtalsmål mot Förintelseförnekaren David Irving. Noterbart dök inte Grokipedia upp som källa när modellen frågades om mediabias mot Donald Trump eller liknande politiskt laddade ämnen. Grokipedia, utvecklad av xAI och släppt före GPT-5.2, har utsatts för egen granskning. Den har kritiserats för att inkludera citat från nynazistiska forum, och en studie av amerikanska forskare identifierade citat till »ifrågasatta» och »problematiska» källor i den AI-genererade encyklopedin. Som svar på Guardians fynd uppgav OpenAI att GPT-5.2 »söker på webben efter ett brett spektrum av offentligt tillgängliga källor och synpunkter«, samtidigt som den tillämpar »säkerhetsfilter för att minska risken för att visa länkar kopplade till allvarliga skador«. Denna händelse understryker pågående utmaningar i att säkerställa noggrannhet och neutralitet i AI-utdata, särskilt kring historiska och geopolitiska frågor. Guardians tester, utförda strax efter modellens lansering, tyder på att även om avancerade förmågor förbättras, kvarstår källvalidering som ett kritiskt område för förfining.