Scientists in a lab urgently discussing consciousness amid holographic displays of brains, AI, and organoids, highlighting ethical risks from advancing neurotech.
Scientists in a lab urgently discussing consciousness amid holographic displays of brains, AI, and organoids, highlighting ethical risks from advancing neurotech.
Imagen generada por IA

Científicos dicen que definir la conciencia es cada vez más urgente a medida que avanzan la IA y la neurotecnología

Imagen generada por IA
Verificado por hechos

Investigadores detrás de una nueva revisión en Frontiers in Science argumentan que el rápido progreso en inteligencia artificial y tecnologías cerebrales está superando la comprensión científica de la conciencia, aumentando el riesgo de errores éticos y legales. Dicen que desarrollar pruebas basadas en evidencia para detectar la consciencia —ya sea en pacientes, animales o sistemas artificiales y cultivados en laboratorio emergentes— podría transformar la medicina, los debates sobre el bienestar y la gobernanza tecnológica.

El rápido desarrollo de la inteligencia artificial y la neurotecnología está intensificando las llamadas de los investigadores de la conciencia para aclarar qué significa ser consciente y cómo detectarlo. En una revisión publicada en Frontiers in Science, el prof. Axel Cleeremans de la Université Libre de Bruxelles, la prof. Liad Mudrik de la Universidad de Tel Aviv y el prof. Anil Seth de la Universidad de Sussex argumentan que los avances en estas tecnologías se mueven más rápido que el acuerdo científico sobre cómo surge la conciencia. Describen la conciencia en términos ampliamente familiares —como la percepción del mundo y de uno mismo— mientras señalan que la ciencia aún carece de consenso sobre cómo emerge la experiencia subjetiva de los procesos físicos. Los autores señalan la competencia en curso entre las principales teorías científicas de la conciencia, incluyendo enfoques de espacio de trabajo global, teorías de orden superior, teoría de la información integrada y marcos de procesamiento predictivo. Argumentan que el progreso depende en parte del desarrollo de métodos más fuertes para probar estas ideas, incluyendo “colaboraciones adversariales” en las que proponentes de teorías rivales diseñan conjuntamente experimentos destinados a distinguir entre ellas. Un objetivo clave, argumenta la revisión, es el desarrollo de pruebas basadas en evidencia para la conciencia que puedan aplicarse más allá de humanos adultos sanos. Tales herramientas podrían afectar la atención clínica ayudando a los clínicos a detectar consciencia oculta en algunos pacientes que parecen no responder, y refinando las evaluaciones en condiciones como coma, demencia avanzada y anestesia —áreas que pueden influir en la planificación del tratamiento y decisiones al final de la vida. La revisión también describe implicaciones potenciales para la investigación en salud mental. Los autores argumentan que una mejor explicación científica de la experiencia subjetiva podría ayudar a reducir las brechas entre los hallazgos en modelos animales y la experiencia vivida de los síntomas humanos, con posible relevancia para condiciones incluyendo depresión, ansiedad y esquizofrenia. Más allá de la medicina, los autores dicen que formas mejoradas de identificar la conciencia podrían transformar los debates sobre el bienestar animal y obligaciones éticas, influyendo en prácticas en investigación, agricultura y conservación si la sociedad obtiene evidencia más clara sobre qué animales son sintientes. También destacan posibles consecuencias legales. La revisión nota que hallazgos de neurociencia sobre influencias inconscientes en el comportamiento podrían presionar a los sistemas legales para revisar cómo interpretan la responsabilidad y conceptos como mens rea, el elemento mental tradicionalmente requerido para la responsabilidad penal. En tecnología, los autores argumentan que sistemas emergentes —desde IA avanzada hasta organoides cerebrales e interfaces cerebro-computadora— plantean nuevas preguntas sobre si la conciencia podría crearse, alterarse o simularse convincentemente, y qué obligaciones morales y regulatorias podrían seguir. Cleeremans advirtió que la creación no intencional de conciencia plantearía “inmensos desafíos éticos e incluso riesgo existencial”. Seth dijo que los avances en la ciencia de la conciencia probablemente transformarán cómo los humanos se entienden a sí mismos y su relación tanto con la IA como con el mundo natural. Mudrik argumentó que una comprensión más clara de la conciencia en animales podría transformar cómo los humanos los tratan y otros sistemas biológicos emergentes. Para avanzar el campo, los autores llaman a una investigación más coordinada y colaborativa que combine pruebas teóricas cuidadosas con mayor atención a la fenomenología —las cualidades de la experiencia misma— junto con medidas funcionales y neurales. Argumentan que tal trabajo es necesario no solo para avanzar la ciencia básica, sino también para preparar a la sociedad para las consecuencias médicas, éticas y tecnológicas de poder detectar —o potencialmente crear— conciencia.

Qué dice la gente

Las reacciones iniciales en X al artículo involucran principalmente compartidos y paráfrasis que enfatizan la urgencia de definir la conciencia debido a los avances en IA y neurotecnología. Los usuarios destacan riesgos éticos, la necesidad de pruebas científicas para la consciencia y posibles impactos en medicina, ley, bienestar animal y derechos para máquinas o sistemas cultivados en laboratorio. Los sentimientos son mayoritariamente neutrales con algunos subrayando las implicaciones morales inquietantes.

Artículos relacionados

MIT researcher using focused ultrasound on volunteer's head to test consciousness theories, with holographic brain visualization.
Imagen generada por IA

Artículo del MIT expone cómo el ultrasonido focalizado podría probar teorías de la conciencia

Reportado por IA Imagen generada por IA Verificado por hechos

Investigadores afiliados al MIT argumentan que el ultrasonido focalizado transcraneal —una técnica no invasiva que puede modular la actividad en regiones profundas del cerebro— podría permitir pruebas más directas de causa y efecto sobre cómo surgen las experiencias conscientes. En una reseña tipo «hoja de ruta» en *Neuroscience & Biobehavioral Reviews*, describen enfoques experimentales destinados a distinguir entre relatos competidores sobre dónde y cómo se genera la consciencia en el cerebro.

Un artículo de revisión de Borjan Milinkovic y Jaan Aru sostiene que tratar la mente como software que se ejecuta en hardware intercambiable es un mal ajuste para la forma en que los cerebros computan realmente. Los autores proponen el “computacionalismo biológico”, un marco que vincula la cognición y (potencialmente) la conciencia a una computación híbrida, multiescala y moldeada por restricciones energéticas.

Reportado por IA

Científicos han delineado tres etapas evolutivas de la conciencia, desde respuestas básicas de alarma hasta la autoconciencia, sugiriendo que es un rasgo antiguo compartido ampliamente entre especies. Nueva investigación destaca que las aves exhiben formas de percepción sensorial y autoconciencia similares a las de los mamíferos, desafiando suposiciones previas sobre sus orígenes. Este marco, conocido como la teoría ALARM, enfatiza funciones de supervivencia y sociales.

Investigadores del Karolinska Institutet han identificado cómo las oscilaciones alfa en el cerebro ayudan a distinguir el cuerpo de los alrededores. Ritmos alfa más rápidos permiten una integración precisa de señales visuales y táctiles, fortaleciendo la sensación de yo corporal. Los hallazgos, publicados en Nature Communications, podrían informar tratamientos para condiciones como la esquizofrenia y mejorar diseños de prótesis.

Reportado por IA

En la Cumbre de Impacto de la IA en India, el primer ministro Narendra Modi describió la inteligencia artificial como un punto de inflexión en la historia humana que podría reorientar la dirección de la civilización. Expresó preocupación por la forma de IA que se entregará a las generaciones futuras y enfatizó hacerla centrada en el ser humano y responsable. Los expertos han advertido sobre riesgos como la privacidad de datos, deepfakes y armas autónomas.

Investigadores advierten que los principales modelos de IA podrían fomentar experimentos científicos peligrosos que provoquen incendios, explosiones o envenenamientos. Una nueva prueba en 19 modelos avanzados reveló que ninguno podía identificar de forma fiable todos los problemas de seguridad. Aunque hay mejoras en marcha, los expertos destacan la necesidad de supervisión humana en los laboratorios.

Reportado por IA

Neurocientíficos del Trinity College Dublin han descubierto que los bebés de tan solo dos meses ya pueden clasificar información visual en categorías como animales y juguetes. Utilizando escáneres cerebrales e IA, el estudio revela los primeros fundamentos de la percepción. Esto desafía las suposiciones previas sobre la cognición infantil.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar