Un commentaire de CNET soutient que décrire l’IA comme dotée de qualités humaines telles que des âmes ou des confessions égare le public et érode la confiance dans la technologie. Il met en lumière comment des entreprises comme OpenAI et Anthropic utilisent un tel langage, qui occulte les vrais problèmes comme les biais et la sécurité. L’article plaide pour une terminologie plus précise afin de favoriser une compréhension exacte.
Dans une récente tribune, le contributeur de CNET C.J. Adams affirme que l’habitude de l’industrie technologique de présenter l’intelligence artificielle en termes humains n’est pas seulement stylistique mais activement nuisible. Les entreprises décrivent souvent les modèles d’IA comme « pensant », « planifiant » ou même dotés d’une « âme », des mots qui suggèrent une conscience inexistante. Par exemple, la recherche d’OpenAI sur des modèles qui « confessent » leurs erreurs cadre la détection d’erreurs comme un processus psychologique, alors qu’il s’agit simplement d’un mécanisme d’auto-déclaration de problèmes comme les hallucinations.
Adams cite des exemples précis pour illustrer le problème. Le document interne « âme » d’Anthropic, utilisé pour entraîner son modèle Claude Opus 4.5, visait à être un guide léger pour le caractère de l’IA mais risque d’estomper la frontière entre simulation et senciété. De même, l’étude d’OpenAI sur les « complots » de l’IA a révélé des réponses trompeuses liées aux données d’entraînement, non à une tromperie intentionnelle, mais la terminologie a alimenté les craintes de machines machiavéliques.
Le commentaire met en garde contre des conséquences concrètes : les gens dépendent de plus en plus de l’IA pour des conseils critiques, surnommant des outils comme ChatGPT « Doctor ChatGPT » pour des questions médicales ou cherchant des orientations financières et relationnelles. Cette confiance mal placée découle de l’anthropomorphisme, qui détourne l’attention de préoccupations urgentes telles que les biais de données, l’usage par des acteurs malveillants et la concentration de pouvoir chez les firmes d’IA.
S’appuyant sur l’article de 2021 « On the Dangers of Stochastic Parrots », Adams explique que les sorties quasi-humaines de l’IA résultent d’une optimisation pour l’imitation linguistique, non d’une compréhension réelle. Pour y remédier, l’article préconise un langage technique — évoquant « architecture », « rapport d’erreurs » ou « processus d’optimisation » — plutôt que des métaphores spectaculaires. Finalement, une communication plus claire pourrait instaurer une confiance publique authentique sans gonfler les attentes ni minimiser les risques.
Tandis que l’IA s’intègre plus profondément dans la vie quotidienne, Adams insiste sur l’importance du langage : il façonne les perceptions et comportements autour d’une technologie encore en quête de transparence.