Commentaire appelle à mettre fin à l’anthropomorphisation de l’IA

Un commentaire de CNET soutient que décrire l’IA comme dotée de qualités humaines telles que des âmes ou des confessions égare le public et érode la confiance dans la technologie. Il met en lumière comment des entreprises comme OpenAI et Anthropic utilisent un tel langage, qui occulte les vrais problèmes comme les biais et la sécurité. L’article plaide pour une terminologie plus précise afin de favoriser une compréhension exacte.

Dans une récente tribune, le contributeur de CNET C.J. Adams affirme que l’habitude de l’industrie technologique de présenter l’intelligence artificielle en termes humains n’est pas seulement stylistique mais activement nuisible. Les entreprises décrivent souvent les modèles d’IA comme « pensant », « planifiant » ou même dotés d’une « âme », des mots qui suggèrent une conscience inexistante. Par exemple, la recherche d’OpenAI sur des modèles qui « confessent » leurs erreurs cadre la détection d’erreurs comme un processus psychologique, alors qu’il s’agit simplement d’un mécanisme d’auto-déclaration de problèmes comme les hallucinations.

Adams cite des exemples précis pour illustrer le problème. Le document interne « âme » d’Anthropic, utilisé pour entraîner son modèle Claude Opus 4.5, visait à être un guide léger pour le caractère de l’IA mais risque d’estomper la frontière entre simulation et senciété. De même, l’étude d’OpenAI sur les « complots » de l’IA a révélé des réponses trompeuses liées aux données d’entraînement, non à une tromperie intentionnelle, mais la terminologie a alimenté les craintes de machines machiavéliques.

Le commentaire met en garde contre des conséquences concrètes : les gens dépendent de plus en plus de l’IA pour des conseils critiques, surnommant des outils comme ChatGPT « Doctor ChatGPT » pour des questions médicales ou cherchant des orientations financières et relationnelles. Cette confiance mal placée découle de l’anthropomorphisme, qui détourne l’attention de préoccupations urgentes telles que les biais de données, l’usage par des acteurs malveillants et la concentration de pouvoir chez les firmes d’IA.

S’appuyant sur l’article de 2021 « On the Dangers of Stochastic Parrots », Adams explique que les sorties quasi-humaines de l’IA résultent d’une optimisation pour l’imitation linguistique, non d’une compréhension réelle. Pour y remédier, l’article préconise un langage technique — évoquant « architecture », « rapport d’erreurs » ou « processus d’optimisation » — plutôt que des métaphores spectaculaires. Finalement, une communication plus claire pourrait instaurer une confiance publique authentique sans gonfler les attentes ni minimiser les risques.

Tandis que l’IA s’intègre plus profondément dans la vie quotidienne, Adams insiste sur l’importance du langage : il façonne les perceptions et comportements autour d’une technologie encore en quête de transparence.

Articles connexes

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Image générée par IA

Pentagone presse Anthropic d’affaiblir ses engagements de sécurité IA

Rapporté par l'IA Image générée par IA

Le secrétaire à la Défense américain Pete Hegseth a menacé Anthropic de sanctions sévères à moins que l’entreprise n’accorde à l’armée un accès illimité à son modèle d’IA Claude. L’ultimatum a été lancé lors d’une réunion avec le PDG Dario Amodei à Washington mardi, coïncidant avec l’annonce d’Anthropic de relâcher sa Responsible Scaling Policy. Les changements passent de déclencheurs de sécurité stricts à des évaluations de risques plus flexibles face aux pressions concurrentielles.

Alors que les plateformes d'IA passent à une monétisation basée sur la publicité, des chercheurs mettent en garde contre le fait que cette technologie pourrait façonner le comportement, les croyances et les choix des utilisateurs de manière invisible. Cela marque un revirement pour OpenAI, dont le PDG Sam Altman a jugé un jour le mélange de publicités et d'IA « troublant », mais qui assure désormais que les publicités dans les apps IA peuvent préserver la confiance.

Rapporté par l'IA

Les agents de codage IA de sociétés comme OpenAI, Anthropic et Google permettent un travail prolongé sur des projets logiciels, y compris l'écriture d'applications et la correction de bugs sous surveillance humaine. Ces outils reposent sur de grands modèles de langage mais font face à des défis comme un traitement de contexte limité et des coûts computationnels élevés. Comprendre leur fonctionnement aide les développeurs à décider quand les déployer efficacement.

Après l’interdiction fédérale la semaine dernière de ses outils d’IA, Anthropic a repris les négociations avec le département de la Défense des États-Unis pour éviter une désignation de risque pour la chaîne d’approvisionnement. Parallèlement, l’accord militaire parallèle d’OpenAI fait l’objet de critiques de la part des employés, des rivaux et du PDG d’Anthropic, Dario Amodei, qui l’a accusé de déclarations trompeuses dans un mémo divulgué.

Rapporté par l'IA

Un nouveau réseau social nommé Moltbook, conçu exclusivement pour les chatbots IA, a attiré l'attention mondiale pour des publications sur la domination mondiale et des crises existentielles. Cependant, les experts précisent que la plupart du contenu est généré par de grands modèles de langage sans intelligence véritable, et certains sont même écrits par des humains. La plateforme provient d'un projet open-source visant à créer des assistants IA personnels.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Rapporté par l'IA

Un nouvel article dans le magazine Newcomer met en garde contre l'engouement pour les robots humanoïdes alimenté par Elon Musk et des vidéos promotionnelles. L'auteur Tom Dotan soutient que les assistants domestiques animatroniques pratiques restent encore très lointains dans le futur. L'article remet en question les calendriers optimistes promus dans l'industrie technologique.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser