Ars Technica retire un article contenant des citations fabriquées par IA

Ars Technica a retiré un article qui incluait des citations fabriquées générées par un outil d’IA et attribuées à tort à une source. La publication a qualifié l’incident de grave manquement à ses normes éditoriales. Il semble s’agir d’un cas isolé, sans autres problèmes détectés dans les travaux récents.

Vendredi après-midi, Ars Technica a publié un article contenant des citations fabriquées à l’aide d’un outil d’IA. Ces citations ont été attribuées à une source qui ne les a pas réellement prononcées, marquant une violation significative des principes journalistiques du site. La publication a souligné que les citations directes doivent toujours refléter fidèlement ce que les sources ont déclaré. Ars Technica rapporte depuis longtemps les dangers de la dépendance excessive aux outils d’IA en journalisme, et sa politique éditoriale aborde explicitement ces risques. Cependant, dans ce cas, l’utilisation de matériel généré par IA a violé cette politique, le site interdisant un tel contenu sauf s’il est clairement étiqueté et utilisé uniquement à des fins de démonstration. Après la découverte, les éditeurs ont examiné les articles récents et n’ont trouvé aucun problème supplémentaire. Ils ont qualifié l’événement d’incident isolé. La publication a exprimé un profond regret pour cet échec et présenté des excuses à ses lecteurs. Elle s’est également excusée spécifiquement auprès de M. Scott Shambaugh, la personne faussement citée dans l’article. En réponse à l’affaire, Ars Technica a déclaré qu’elle renforce ses normes éditoriales pour éviter que cela ne se reproduise. L’avis de retrait a été publié le 15 février 2026.

Articles connexes

ZDF news anchor Anne Gellinek apologizes on air for AI-generated image errors and wrong footage in a segment on US ICE operations.
Image générée par IA

ZDF s'excuse pour des erreurs d'IA dans un segment d'actualités

Rapporté par l'IA Image générée par IA

ZDF s'est excusé auprès des téléspectateurs dans le «heute journal» pour des erreurs dans un segment sur les opérations de l'ICE américain. La directrice adjointe Anne Gellinek l'a qualifié de «double erreur» impliquant des images générées par IA et des images d'archives incorrectes. La chaîne a souligné que le contenu IA n'est pas autorisé dans les reportages d'actualité.

Un commentaire de CNET soutient que décrire l’IA comme dotée de qualités humaines telles que des âmes ou des confessions égare le public et érode la confiance dans la technologie. Il met en lumière comment des entreprises comme OpenAI et Anthropic utilisent un tel langage, qui occulte les vrais problèmes comme les biais et la sécurité. L’article plaide pour une terminologie plus précise afin de favoriser une compréhension exacte.

Rapporté par l'IA

Le dernier bulletin 'Inside the Newsroom' de Rappler explore les défis éthiques de l'IA dans le journalisme, se demandant si elle réduit la profession à une simple récolte de données pour du contenu personnalisé.

La boutique de jeux PC GOG suscite des critiques pour avoir utilisé l’IA générative afin de créer des visuels promotionnels pour une promotion. Lors d’un AMA récent sur Reddit, le directeur général de l’entreprise a réagi aux remous mais s’est abstenu de s’engager à abandonner la technologie. GOG a souligné qu’elle teste des outils d’IA pour soutenir sa mission de préservation tout en promettant une utilisation plus prudente.

Rapporté par l'IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Un scan récent de millions d'apps Android a révélé des fuites de données significatives provenant de logiciels IA, dépassant les attentes en termes d'ampleur. Les secrets codés en dur persistent dans la plupart des applications IA Android aujourd'hui. Les conclusions mettent en lumière les risques persistants pour la vie privée dans la technologie mobile.

Rapporté par l'IA

Les labels musicaux et les entreprises technologiques abordent l'utilisation non autorisée des œuvres des artistes pour entraîner des générateurs de musique IA comme Udio et Suno. Des règlements récents avec les grands labels visent à créer de nouveaux flux de revenus, tandis que des outils innovants promettent d'éliminer le contenu non licencié des modèles IA. Les artistes restent prudents face à l'impact de la technologie sur leurs moyens de subsistance.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser