Un rapport du Guardian a révélé que le dernier modèle d'IA d'OpenAI, GPT-5.2, puise dans Grokipedia, une encyclopédie en ligne alimentée par xAI, lorsqu'il aborde des questions sensibles comme l'Holocauste et la politique iranienne. Bien que vanté pour des tâches professionnelles, des tests remettent en question la fiabilité de ses sources. OpenAI défend son approche en insistant sur des recherches web étendues avec des mesures de sécurité.
OpenAI a lancé GPT-5.2 en décembre comme son « modèle de frontière le plus avancé pour le travail professionnel », conçu pour gérer des tâches comme la création de tableurs et des opérations complexes. Cependant, des enquêtes du Guardian ont mis en lumière des failles potentielles dans ses sources d'information. Le rapport détaille comment le modèle, accessible via ChatGPT, a référencé Grokipedia pour des réponses sur des sujets controversés, y compris les liens entre le gouvernement iranien et l'entreprise de télécommunications MTN-Irancell, ainsi que des questions impliquant l'historien britannique Richard Evans, qui a témoigné comme témoin expert dans une affaire de diffamation contre le négationniste de l'Holocauste David Irving. Notamment, Grokipedia n'est pas apparue comme source lorsque le modèle a été interrogé sur le biais médiatique contre Donald Trump ou des sujets politiquement chargés similaires. Grokipedia, développée par xAI et sortie avant GPT-5.2, a fait l'objet de son propre examen. Elle a été critiquée pour inclure des citations de forums néonazis, et une étude de chercheurs américains a identifié des citations de sources « questionnables » et « problématiques » dans l'encyclopédie générée par IA. En réponse aux conclusions du Guardian, OpenAI a déclaré que GPT-5.2 « effectue des recherches sur le web pour une large gamme de sources et de points de vue publics disponibles », tout en appliquant « des filtres de sécurité pour réduire le risque d'affichage de liens associés à des préjudices graves ». Cet incident souligne les défis persistants pour assurer l'exactitude et la neutralité des sorties d'IA, en particulier sur des questions historiques et géopolitiques. Les tests du Guardian, menés peu après la sortie du modèle, suggèrent que, bien que les capacités avancées s'améliorent, la vérification des sources reste un domaine critique à affiner.