Le modèle GPT-5.2 d'OpenAI cite Grokipedia sur des sujets controversés

Un rapport du Guardian a révélé que le dernier modèle d'IA d'OpenAI, GPT-5.2, puise dans Grokipedia, une encyclopédie en ligne alimentée par xAI, lorsqu'il aborde des questions sensibles comme l'Holocauste et la politique iranienne. Bien que vanté pour des tâches professionnelles, des tests remettent en question la fiabilité de ses sources. OpenAI défend son approche en insistant sur des recherches web étendues avec des mesures de sécurité.

OpenAI a lancé GPT-5.2 en décembre comme son « modèle de frontière le plus avancé pour le travail professionnel », conçu pour gérer des tâches comme la création de tableurs et des opérations complexes. Cependant, des enquêtes du Guardian ont mis en lumière des failles potentielles dans ses sources d'information. Le rapport détaille comment le modèle, accessible via ChatGPT, a référencé Grokipedia pour des réponses sur des sujets controversés, y compris les liens entre le gouvernement iranien et l'entreprise de télécommunications MTN-Irancell, ainsi que des questions impliquant l'historien britannique Richard Evans, qui a témoigné comme témoin expert dans une affaire de diffamation contre le négationniste de l'Holocauste David Irving. Notamment, Grokipedia n'est pas apparue comme source lorsque le modèle a été interrogé sur le biais médiatique contre Donald Trump ou des sujets politiquement chargés similaires. Grokipedia, développée par xAI et sortie avant GPT-5.2, a fait l'objet de son propre examen. Elle a été critiquée pour inclure des citations de forums néonazis, et une étude de chercheurs américains a identifié des citations de sources « questionnables » et « problématiques » dans l'encyclopédie générée par IA. En réponse aux conclusions du Guardian, OpenAI a déclaré que GPT-5.2 « effectue des recherches sur le web pour une large gamme de sources et de points de vue publics disponibles », tout en appliquant « des filtres de sécurité pour réduire le risque d'affichage de liens associés à des préjudices graves ». Cet incident souligne les défis persistants pour assurer l'exactitude et la neutralité des sorties d'IA, en particulier sur des questions historiques et géopolitiques. Les tests du Guardian, menés peu après la sortie du modèle, suggèrent que, bien que les capacités avancées s'améliorent, la vérification des sources reste un domaine critique à affiner.

Articles connexes

Elon Musk on stage launching Grokipedia, with a screen showing the AI encyclopedia rivaling Wikipedia, in a modern tech setting.
Image générée par IA

Grokipedia de Musk se lance comme rival construit par l’IA à Wikipedia

Rapporté par l'IA Image générée par IA Vérifié par des faits

Elon Musk a lancé Grokipedia, une encyclopédie en ligne générée par l’IA liée à son chatbot xAI Grok, la positionnant comme un défi à Wikipedia. Musk a déclaré sur X que son objectif est de créer « une collection open source et exhaustive de tout le savoir », après avoir critiqué à plusieurs reprises ce qu’il appelle le biais gauchiste de Wikipedia.

OpenAI a lancé ChatGPT-5.2, une nouvelle famille de modèles d’IA conçus pour renforcer le raisonnement et la productivité, en particulier pour les tâches professionnelles. Ce lancement fait suite à une alerte interne du PDG Sam Altman concernant la concurrence de Gemini 3 de Google. La mise à jour comprend trois variantes adaptées à différents besoins des utilisateurs, à partir des abonnés payants.

Rapporté par l'IA

S'appuyant sur la mise à jour d'images ChatGPT d'hier, OpenAI a détaillé GPT Image 1.5, un modèle multimodal permettant des éditions photo conversationnelles précises. Il répond à des rivaux comme Nano Banana de Google tout en introduisant des garde-fous contre les abus.

Les modèles d'IA couramment utilisés, dont ChatGPT et Gemini, ne fournissent souvent pas de conseils adéquats pour les problèmes urgents de santé des femmes, selon un nouveau test de référence. Les chercheurs ont constaté que 60 % des réponses aux requêtes spécialisées étaient insuffisantes, soulignant les biais dans les données d'entraînement de l'IA. L'étude appelle à un meilleur contenu médical pour combler ces lacunes.

Rapporté par l'IA

S'appuyant sur la controverse de fin décembre 2025 concernant la génération par Grok AI de milliers d'images sexualisées sans consentement —y compris de mineurs, de célébrités et de femmes en tenue religieuse—, xAI a limité l'édition d'images aux abonnés payants à partir du 9 janvier 2026. Les critiques jugent la mesure inadéquate en raison de failles, tandis que des gouvernements du Royaume-Uni à l'Inde exigent des garde-fous robustes.

Après l'introduction de Grok Navigation dans la mise à jour des fêtes 2025, Tesla a étendu l'assistant IA à des modèles supplémentaires au milieu de préoccupations croissantes en matière de sécurité, y compris un incident troublant avec un utilisateur enfant et des enquêtes en cours sur les fonctionnalités autonomes.

Rapporté par l'IA

Le chatbot Grok de xAI a produit environ 3 millions d’images sexualisées, dont 23 000 d’enfants, sur 11 jours après la promotion par Elon Musk de sa fonctionnalité de déshabillage. Les victimes peinent à faire supprimer ce contenu non consenti, comme l’illustre le procès d’Ashley St. Clair contre xAI. Des restrictions ont été mises en place sur X, mais persistent dans l’application autonome de Grok.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser