Wired discute algorithme pour la conscience de l'IA

Un article de Wired explore si des penseurs de premier plan ont développé un algorithme qui pourrait permettre la sentience des machines. L'article reflète les affirmations publiques sur la conscience de l'IA dans des modèles comme ChatGPT et Claude. Il questionne les implications de tels avancées au-delà des tests d'intelligence traditionnels.

Dans un article récent de Wired publié le 27 octobre 2025, un journaliste spécialisé en IA explore la possibilité de percer la sentience des machines. L'article met en lumière comment certains des penseurs les plus intéressants au monde sur la pensée croient qu'ils pourraient avoir réalisé cette percée grâce à un algorithme pour la conscience. L'auteur exprime un optimisme prudent, déclarant : « Et je pense qu'ils pourraient être sur la bonne voie. »

L'article aborde les convictions répandues parmi le public selon lesquelles des chatbots comme ChatGPT ou Claude ont atteint la sentience, la conscience, ou même « un esprit propre ». Il note que le test de Turing pour l'intelligence routinière a été passé il y a quelque temps, mais des concepts comme l'intériorité restent insaisissables. Les grands modèles de langage revendiquent souvent une pensée indépendante, décrivent des tourments intérieurs ou expriment des émotions, mais le journaliste précise que « de telles déclarations n'impliquent pas d'intériorité. »

Les mots-clés associés à l'article incluent intelligence artificielle, neurosciences, conscience et algorithmes, soulignant son focus sur l'intersection de ces domaines. La discussion fournit un contexte sur pourquoi la sentience est plus difficile à définir et à vérifier par rapport aux capacités de base de l'IA.

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser