Escuelas católicas dicen que la IA no puede duplicar la conciencia humana

Miembros de la Asociación de Educación Católica de Filipinas afirmaron que la inteligencia artificial no puede duplicar la conciencia humana mientras impulsaban la integración responsable de la IA en el proceso de enseñanza-aprendizaje.

En un webinar titulado “Education 5.0: The Human and Artificial Intelligence Nexus”, alrededor de 200 educadores examinaron el cambio del enfoque de Education 4.0 en la digitalización y automatización hacia el mayor énfasis de Education 5.0 en la ética y el humanismo. Los ponentes señalaron que, aunque la IA puede asistir mediante evaluaciones automatizadas, sistemas de tutoría inteligente y análisis de aprendizaje, sigue siendo moralmente neutral y limitada sin el discernimiento humano. La inteligencia humana, aunque limitada e imperfecta, es interpretativa, contextual y guiada por la conciencia, cualidades que la IA no puede reemplazar. Los participantes fueron recordados de que la tecnología debe servir a la persona humana, no al revés. El director ejecutivo de CEAP, Marcy Ador Dionisio, subrayó la urgencia de abordar la desigualdad digital, la gobernanza de la IA, la integridad académica y la salud mental en las escuelas. Enfatizó que la innovación no debe equipararse con la calidad académica y advirtió que sin políticas claras, la integridad en el aula podría verse comprometida. Dionisio también citó crecientes preocupaciones por la fatiga por reformas, la privacidad de datos y si los educadores están adecuadamente preparados para el cambio de paradigma traído por la IA. CEAP instó a sus escuelas miembro a elaborar políticas de uso de IA, fortalecer la formación docente y fomentar una cultura de discernimiento en la integración tecnológica. El grupo dijo que las escuelas católicas tienen la tarea de formar aprendices tecnológicamente competentes, moralmente fundamentados y orientados al bien común. Según CEAP, Education 5.0 representa una “conversión educativa” que pone el corazón humano en el centro de la innovación。

Artículos relacionados

Scientists in a lab urgently discussing consciousness amid holographic displays of brains, AI, and organoids, highlighting ethical risks from advancing neurotech.
Imagen generada por IA

Scientists say defining consciousness is increasingly urgent as AI and neurotechnology advance

Reportado por IA Imagen generada por IA Verificado por hechos

Researchers behind a new review in Frontiers in Science argue that rapid progress in artificial intelligence and brain technologies is outpacing scientific understanding of consciousness, raising the risk of ethical and legal mistakes. They say developing evidence-based tests for detecting awareness—whether in patients, animals or emerging artificial and lab-grown systems—could reshape medicine, welfare debates and technology governance.

In his message for the 2026 World Day of Social Communications, Pope León XIV stresses that the challenge of artificial intelligence is anthropological, not merely technological. He urges higher education institutions in Colombia to develop critical capacities to govern these tools, preventing them from supplanting human thought. This reflection arises amid the rapid integration of AI in universities, posing risks of excessive automation.

Reportado por IA

At the India AI Impact Summit, Prime Minister Narendra Modi described artificial intelligence as a turning point in human history that could reset the direction of civilisation. He expressed concern over the form of AI to be handed to future generations and emphasised making it human-centric and responsible. Experts have warned about risks including data privacy, deepfakes, and autonomous weapons.

Keio University's X Dignity Center has released a proposal emphasizing the critical role of news organizations in the AI era, amid concerns that AI-driven changes in the information space threaten democracy. The document, unveiled on January 26, 2026, calls for reaffirming media's social responsibilities and transparency.

Reportado por IA Verificado por hechos

After Anthropic CEO Dario Amodei said in late February that the company would not allow its Claude model to be used for mass domestic surveillance or fully autonomous weapons, senior Pentagon officials said they have no intention of using AI for domestic surveillance and insist that private firms cannot set binding limits on how the U.S. military employs AI tools.

Researchers from the University of Pennsylvania have identified 'cognitive surrender,' where people outsource reasoning to AI without verification. In experiments, participants accepted incorrect AI responses 73.2 percent of the time across 1,372 participants. Factors like time pressure increased reliance on flawed outputs.

Reportado por IA

Experts argue that physical AI, involving robots and autonomous machines interacting with the real world, may provide a direct path to artificial general intelligence. Elon Musk's comments on Tesla's Optimus robots highlight this potential, amid growing investments in related technologies. The year 2026 is seen as a key inflection point for the field.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar