Conscience

Suivre
Scientists in a lab urgently discussing consciousness amid holographic displays of brains, AI, and organoids, highlighting ethical risks from advancing neurotech.
Image générée par IA

Les scientifiques estiment que définir la conscience est de plus en plus urgent avec les avancées de l’IA et de la neurotechnologie

Rapporté par l'IA Image générée par IA Vérifié par des faits

Des chercheurs à l’origine d’une nouvelle revue dans Frontiers in Science soutiennent que les progrès rapides de l’intelligence artificielle et des technologies cérébrales dépassent la compréhension scientifique de la conscience, augmentant le risque d’erreurs éthiques et juridiques. Ils affirment que le développement de tests basés sur des preuves pour détecter la conscience — chez les patients, les animaux ou les systèmes artificiels et cultivés en laboratoire émergents — pourrait transformer la médecine, les débats sur le bien-être et la gouvernance technologique.

Un article de synthèse de Borjan Milinkovic et Jaan Aru affirme que considérer l’esprit comme un logiciel s’exécutant sur du matériel interchangeable est inadapté à la manière dont les cerveaux calculent réellement. Les auteurs proposent le « computationalisme biologique », un cadre liant cognition et (potentiellement) conscience à un calcul hybride, multi-échelle et contraint par l’énergie.

Rapporté par l'IA

Les scientifiques ont décrit trois étapes évolutives de la conscience, des réponses d'alarme basiques à la conscience de soi, suggérant qu'il s'agit d'un trait ancien partagé largement entre espèces. De nouvelles recherches mettent en lumière que les oiseaux présentent des formes de perception sensorielle et de conscience de soi similaires à celles des mammifères, remettant en question les hypothèses précédentes sur ses origines. Ce cadre, connu sous le nom de théorie ALARM, met l'accent sur les fonctions de survie et sociales.

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser