Scientists in a lab urgently discussing consciousness amid holographic displays of brains, AI, and organoids, highlighting ethical risks from advancing neurotech.
Image générée par IA

Les scientifiques estiment que définir la conscience est de plus en plus urgent avec les avancées de l’IA et de la neurotechnologie

Image générée par IA
Vérifié par des faits

Des chercheurs à l’origine d’une nouvelle revue dans Frontiers in Science soutiennent que les progrès rapides de l’intelligence artificielle et des technologies cérébrales dépassent la compréhension scientifique de la conscience, augmentant le risque d’erreurs éthiques et juridiques. Ils affirment que le développement de tests basés sur des preuves pour détecter la conscience — chez les patients, les animaux ou les systèmes artificiels et cultivés en laboratoire émergents — pourrait transformer la médecine, les débats sur le bien-être et la gouvernance technologique.

Le développement rapide de l’intelligence artificielle et de la neurotechnologie intensifie les appels des chercheurs en conscience pour clarifier ce que signifie être conscient — et comment le détecter. Dans une revue publiée dans Frontiers in Science, le prof. Axel Cleeremans de l’Université Libre de Bruxelles, la prof. Liad Mudrik de l’Université de Tel Aviv et le prof. Anil Seth de l’Université de Sussex soutiennent que les avancées dans ces technologies progressent plus vite que l’accord scientifique sur la façon dont émerge la conscience. Ils décrivent la conscience en termes largement familiers — comme la conscience du monde et de soi-même — tout en notant que la science manque encore de consensus sur la manière dont l’expérience subjective émerge des processus physiques. Les auteurs soulignent la compétition en cours entre les principales théories scientifiques de la conscience, incluant les approches d’espace de travail global, les théories de second ordre, la théorie de l’information intégrée et les cadres de traitement prédictif. Ils soutiennent que les progrès dépendent en partie du développement de méthodes plus solides pour tester ces idées, y compris des « collaborations adversarielles » dans lesquelles les partisans de théories rivales conçoivent conjointement des expériences destinées à les distinguer. Un objectif clé, argue la revue, est le développement de tests basés sur des preuves de la conscience applicables au-delà des humains adultes en bonne santé. De tels outils pourraient affecter les soins cliniques en aidant les cliniciens à détecter une conscience cachée chez certains patients apparemment non réactifs, et en affinant les évaluations dans des conditions comme le coma, la démence avancée et l’anesthésie — domaines qui peuvent influencer la planification des traitements et les décisions en fin de vie. La revue expose également les implications potentielles pour la recherche en santé mentale. Les auteurs soutiennent qu’un meilleur compte scientifique de l’expérience subjective pourrait aider à combler les écarts entre les résultats des modèles animaux et l’expérience vécue des symptômes humains, avec une pertinence possible pour des affections incluant la dépression, l’anxiété et la schizophrénie. Au-delà de la médecine, les auteurs estiment que des moyens améliorés d’identifier la conscience pourraient remodeler les débats sur le bien-être animal et les obligations éthiques, influençant les pratiques en recherche, agriculture et conservation si la société obtient des preuves plus claires sur les animaux sentients. Ils mettent également en lumière des conséquences juridiques potentielles. La revue note que les découvertes en neurosciences sur les influences inconscientes sur le comportement pourraient pousser les systèmes juridiques à réexaminer comment ils interprètent la responsabilité et des concepts comme mens rea, l’élément mental traditionnellement requis pour la responsabilité pénale. En technologie, les auteurs soutiennent que les systèmes émergents — de l’IA avancée aux organoïdes cérébraux et interfaces cerveau-ordinateur — soulèvent de nouvelles questions sur si la conscience pourrait être créée, modifiée ou simulée de manière convaincante, et quelles obligations morales et réglementaires pourraient en découler. Cleeremans a averti que la création involontaire de conscience poserait « d’immenses défis éthiques et même un risque existentiel ». Seth a déclaré que les avancées dans la science de la conscience devraient remodeler la façon dont les humains se comprennent et leur relation à la fois avec l’IA et le monde naturel. Mudrik a soutenu qu’une compréhension plus claire de la conscience chez les animaux pourrait transformer la manière dont les humains les traitent et d’autres systèmes biologiques émergents. Pour faire avancer le domaine, les auteurs appellent à une recherche plus coordonnée et collaborative combinant des tests théoriques rigoureux avec une plus grande attention à la phénoménologie — les qualités de l’expérience elle-même — aux côtés de mesures fonctionnelles et neurales. Ils soutiennent que ce travail est nécessaire non seulement pour faire progresser la science de base, mais aussi pour préparer la société aux conséquences médicales, éthiques et technologiques de la capacité à détecter — ou potentiellement créer — la conscience.

Ce que les gens disent

Les réactions initiales sur X à l’article consistent principalement en partages et paraphrases soulignant l’urgence de définir la conscience en raison des avancées de l’IA et de la neurotechnologie. Les utilisateurs mettent en avant les risques éthiques, le besoin de tests scientifiques pour la conscience et les impacts potentiels sur la médecine, le droit, le bien-être animal et les droits pour les machines ou systèmes cultivés en laboratoire. Les sentiments sont majoritairement neutres avec certains soulignant les implications morales troublantes.

Articles connexes

Realistic depiction of a rhesus macaque in a Princeton lab with brain overlay showing prefrontal cortex assembling reusable cognitive 'Lego' modules for flexible learning.
Image générée par IA

Étude de Princeton révèle les « Lego cognitifs » réutilisables du cerveau pour un apprentissage flexible

Rapporté par l'IA Image générée par IA Vérifié par des faits

Des neuroscientifiques de l’université de Princeton rapportent que le cerveau parvient à un apprentissage flexible en réutilisant des composants cognitifs modulaires à travers les tâches. Dans des expériences avec des macaques rhésus, les chercheurs ont découvert que le cortex préfrontal assemble ces « Lego cognitifs » réutilisables pour adapter rapidement les comportements. Les résultats, publiés le 26 novembre dans Nature, soulignent les différences avec les systèmes d’IA actuels et pourraient éventuellement informer des traitements pour les troubles qui altèrent la pensée flexible.

Un article de synthèse de Borjan Milinkovic et Jaan Aru affirme que considérer l’esprit comme un logiciel s’exécutant sur du matériel interchangeable est inadapté à la manière dont les cerveaux calculent réellement. Les auteurs proposent le « computationalisme biologique », un cadre liant cognition et (potentiellement) conscience à un calcul hybride, multi-échelle et contraint par l’énergie.

Rapporté par l'IA

Les scientifiques ont décrit trois étapes évolutives de la conscience, des réponses d'alarme basiques à la conscience de soi, suggérant qu'il s'agit d'un trait ancien partagé largement entre espèces. De nouvelles recherches mettent en lumière que les oiseaux présentent des formes de perception sensorielle et de conscience de soi similaires à celles des mammifères, remettant en question les hypothèses précédentes sur ses origines. Ce cadre, connu sous le nom de théorie ALARM, met l'accent sur les fonctions de survie et sociales.

Des chercheurs de l'université de Nagoya au Japon ont développé des modèles cérébraux miniatures à partir de cellules souches pour étudier les interactions entre le thalamus et le cortex. Leur travail révèle le rôle clé du thalamus dans la maturation des réseaux neuronaux corticaux. Ces découvertes pourraient faire avancer la recherche sur les troubles neurologiques comme l'autisme.

Rapporté par l'IA

Des chercheurs de Rutgers Health ont identifié comment le cerveau intègre les traitements rapides et lents via des connexions de substance blanche, influençant les capacités cognitives. Publié dans Nature Communications, l'étude a analysé des données de près de 1 000 personnes pour cartographier ces échelles temporelles neuronales. Les variations dans ce système peuvent expliquer les différences d'efficacité de la pensée et promettent pour la recherche en santé mentale.

Un nombre croissant d'entreprises évalue les risques de sécurité associés à l'intelligence artificielle, marquant un changement par rapport aux années précédentes. Cette tendance indique une sensibilisation accrue des entreprises aux vulnérabilités potentielles des technologies d'IA. Ce développement intervient alors que les organisations priorisent les mesures de protection contre les menaces émergentes.

Rapporté par l'IA Vérifié par des faits

Une région du mésencéphale évolutivement ancienne, le colliculus supérieur, peut effectuer de manière indépendante des calculs visuels longtemps attribués principalement au cortex, selon une étude de PLOS Biology. Ce travail suggère que des mécanismes de guidage de l'attention aux racines datant de plus de 500 millions d'années aident à séparer les objets des arrière-plans et à mettre en évidence les détails saillants.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser