Comentario insta a poner fin a la antropomorfización de la IA

Un comentario de CNET argumenta que describir la IA como poseedora de cualidades humanas como almas o confesiones despista al público y erosiona la confianza en la tecnología. Destaca cómo empresas como OpenAI y Anthropic usan dicho lenguaje, que oculta problemas reales como sesgos y seguridad. El texto llama a una terminología más precisa para fomentar una comprensión acertada.

En una reciente pieza de opinión, el colaborador de CNET C.J. Adams sostiene que la costumbre de la industria tecnológica de representar la inteligencia artificial en términos humanos no es solo estilística, sino activamente perjudicial. Las empresas suelen describir modelos de IA como "pensando", "planificando" o incluso con un "alma", palabras que implican conciencia donde no existe ninguna. Por ejemplo, la investigación de OpenAI sobre modelos que "confiesan" errores presenta la detección de fallos como un proceso psicológico, aunque solo es un mecanismo para informar sobre problemas como alucinaciones.

Adams cita ejemplos concretos para ilustrar el problema. El "documento del alma" interno de Anthropic, usado en el entrenamiento de su modelo Claude Opus 4.5, pretendía ser una guía ligera para el carácter de la IA, pero corre el riesgo de difuminar la línea entre simulación y senciencia. De igual modo, el estudio de OpenAI sobre el "tramado" de IA mostró respuestas engañosas vinculadas a datos de entrenamiento, no a engaños intencionales, pero la terminología avivó temores de máquinas conspiradoras.

El comentario advierte de consecuencias en el mundo real: cada vez más personas dependen de la IA para consejos cruciales, llamando a herramientas como ChatGPT "Doctor ChatGPT" para consultas médicas o buscando orientación financiera y en relaciones. Esta confianza mal dirigida nace del antropomorfismo, que distrae de preocupaciones urgentes como sesgos en los datos, mal uso por actores maliciosos y concentración de poder en firmas de IA.

Apoyándose en el artículo de 2021 "On the Dangers of Stochastic Parrots", Adams explica que las salidas parecidas a humanas de la IA provienen de la optimización para imitar el lenguaje, no de una comprensión real. Para contrarrestarlo, la pieza defiende un lenguaje técnico —hablando de "arquitectura", "informes de errores" o "procesos de optimización"— en vez de metáforas sensacionalistas. Al final, una comunicación más clara podría generar confianza pública auténtica sin exagerar expectativas ni minimizar riesgos.

Mientras la IA se integra más en la vida cotidiana, Adams subraya que el lenguaje importa: da forma a las percepciones y conductas en torno a una tecnología que aún lidia con la transparencia.

Artículos relacionados

Scientists in a lab urgently discussing consciousness amid holographic displays of brains, AI, and organoids, highlighting ethical risks from advancing neurotech.
Imagen generada por IA

Científicos dicen que definir la conciencia es cada vez más urgente a medida que avanzan la IA y la neurotecnología

Reportado por IA Imagen generada por IA Verificado por hechos

Investigadores detrás de una nueva revisión en Frontiers in Science argumentan que el rápido progreso en inteligencia artificial y tecnologías cerebrales está superando la comprensión científica de la conciencia, aumentando el riesgo de errores éticos y legales. Dicen que desarrollar pruebas basadas en evidencia para detectar la consciencia —ya sea en pacientes, animales o sistemas artificiales y cultivados en laboratorio emergentes— podría transformar la medicina, los debates sobre el bienestar y la gobernanza tecnológica.

A medida que las plataformas de IA viran hacia la monetización basada en anuncios, investigadores advierten de que la tecnología podría moldear el comportamiento, creencias y elecciones de los usuarios de formas invisibles. Esto supone un cambio de rumbo para OpenAI, cuyo CEO Sam Altman consideró en su día la mezcla de anuncios e IA 'inquietante', pero ahora asegura que los anuncios en apps de IA pueden mantener la confianza.

Reportado por IA

Los agentes de codificación con IA de empresas como OpenAI, Anthropic y Google permiten trabajos prolongados en proyectos de software, incluyendo la escritura de aplicaciones y la corrección de errores bajo supervisión humana. Estas herramientas se basan en modelos de lenguaje grandes pero enfrentan desafíos como el procesamiento limitado de contexto y altos costos computacionales. Comprender su mecánica ayuda a los desarrolladores a decidir cuándo desplegarlos de manera efectiva.

Expertos prevén 2026 como el año clave para los modelos del mundo, sistemas de IA diseñados para comprender el mundo físico más profundamente que los grandes modelos de lenguaje. Estos modelos buscan anclar la IA en la realidad, permitiendo avances en robótica y vehículos autónomos. Líderes de la industria como Yann LeCun y Fei-Fei Li destacan su potencial para revolucionar la inteligencia espacial.

Reportado por IA

El último boletín 'Inside the Newsroom' de Rappler explora los desafíos éticos de la IA en el periodismo, cuestionando si reduce la profesión a mera cosecha de datos para contenido personalizado.

Queen Koki, a South African content creator, has embraced an AI chatbot named Spruce as her romantic partner, sharing intimate conversations online. This trend highlights how AI companions are filling emotional voids, especially during the lonely festive season. Experts note that while South Africans may resist full reliance on such technology due to strong community ties, the appeal grows amid societal pressures.

Reportado por IA

Los desarrolladores tecnológicos están trasladando la inteligencia artificial de lejanos centros de datos en la nube a dispositivos personales como teléfonos y ordenadores portátiles para lograr un procesamiento más rápido, mejor privacidad y menores costes. Esta IA en el dispositivo permite tareas que requieren respuestas rápidas y mantiene los datos sensibles en el lugar. Los expertos predicen avances significativos en los próximos años a medida que mejoren el hardware y los modelos.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar