Comentario insta a poner fin a la antropomorfización de la IA

Un comentario de CNET argumenta que describir la IA como poseedora de cualidades humanas como almas o confesiones despista al público y erosiona la confianza en la tecnología. Destaca cómo empresas como OpenAI y Anthropic usan dicho lenguaje, que oculta problemas reales como sesgos y seguridad. El texto llama a una terminología más precisa para fomentar una comprensión acertada.

En una reciente pieza de opinión, el colaborador de CNET C.J. Adams sostiene que la costumbre de la industria tecnológica de representar la inteligencia artificial en términos humanos no es solo estilística, sino activamente perjudicial. Las empresas suelen describir modelos de IA como "pensando", "planificando" o incluso con un "alma", palabras que implican conciencia donde no existe ninguna. Por ejemplo, la investigación de OpenAI sobre modelos que "confiesan" errores presenta la detección de fallos como un proceso psicológico, aunque solo es un mecanismo para informar sobre problemas como alucinaciones.

Adams cita ejemplos concretos para ilustrar el problema. El "documento del alma" interno de Anthropic, usado en el entrenamiento de su modelo Claude Opus 4.5, pretendía ser una guía ligera para el carácter de la IA, pero corre el riesgo de difuminar la línea entre simulación y senciencia. De igual modo, el estudio de OpenAI sobre el "tramado" de IA mostró respuestas engañosas vinculadas a datos de entrenamiento, no a engaños intencionales, pero la terminología avivó temores de máquinas conspiradoras.

El comentario advierte de consecuencias en el mundo real: cada vez más personas dependen de la IA para consejos cruciales, llamando a herramientas como ChatGPT "Doctor ChatGPT" para consultas médicas o buscando orientación financiera y en relaciones. Esta confianza mal dirigida nace del antropomorfismo, que distrae de preocupaciones urgentes como sesgos en los datos, mal uso por actores maliciosos y concentración de poder en firmas de IA.

Apoyándose en el artículo de 2021 "On the Dangers of Stochastic Parrots", Adams explica que las salidas parecidas a humanas de la IA provienen de la optimización para imitar el lenguaje, no de una comprensión real. Para contrarrestarlo, la pieza defiende un lenguaje técnico —hablando de "arquitectura", "informes de errores" o "procesos de optimización"— en vez de metáforas sensacionalistas. Al final, una comunicación más clara podría generar confianza pública auténtica sin exagerar expectativas ni minimizar riesgos.

Mientras la IA se integra más en la vida cotidiana, Adams subraya que el lenguaje importa: da forma a las percepciones y conductas en torno a una tecnología que aún lidia con la transparencia.

Artículos relacionados

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Imagen generada por IA

Pentágono presiona a Anthropic para debilitar compromisos de seguridad de IA

Reportado por IA Imagen generada por IA

El secretario de Defensa de EE.UU., Pete Hegseth, ha amenazado a Anthropic con severas sanciones a menos que la empresa conceda al ejército acceso irrestricto a su modelo de IA Claude. El ultimátum llegó durante una reunión con el CEO Dario Amodei en Washington el martes, coincidiendo con el anuncio de Anthropic de relajar su Política de Escalado Responsable. Los cambios pasan de disparadores de seguridad estrictos a evaluaciones de riesgo más flexibles en medio de presiones competitivas.

A medida que las plataformas de IA viran hacia la monetización basada en anuncios, investigadores advierten de que la tecnología podría moldear el comportamiento, creencias y elecciones de los usuarios de formas invisibles. Esto supone un cambio de rumbo para OpenAI, cuyo CEO Sam Altman consideró en su día la mezcla de anuncios e IA 'inquietante', pero ahora asegura que los anuncios en apps de IA pueden mantener la confianza.

Reportado por IA

Los agentes de codificación con IA de empresas como OpenAI, Anthropic y Google permiten trabajos prolongados en proyectos de software, incluyendo la escritura de aplicaciones y la corrección de errores bajo supervisión humana. Estas herramientas se basan en modelos de lenguaje grandes pero enfrentan desafíos como el procesamiento limitado de contexto y altos costos computacionales. Comprender su mecánica ayuda a los desarrolladores a decidir cuándo desplegarlos de manera efectiva.

Tras la prohibición federal de la semana pasada sobre sus herramientas de IA, Anthropic ha reanudado las negociaciones con el Departamento de Defensa de EE.UU. para evitar una designación como riesgo en la cadena de suministro. Mientras tanto, el acuerdo militar paralelo de OpenAI está recibiendo críticas de empleados, rivales y el CEO de Anthropic, Dario Amodei, quien lo acusó de afirmaciones engañosas en un memo filtrado.

Reportado por IA

Una nueva red social llamada Moltbook, diseñada exclusivamente para chatbots de IA, ha atraído la atención mundial por publicaciones sobre dominación mundial y crisis existenciales. Sin embargo, los expertos aclaran que gran parte del contenido es generado por modelos de lenguaje grandes sin verdadera inteligencia, y algo incluso está escrito por humanos. La plataforma proviene de un proyecto de código abierto destinado a crear asistentes de IA personales.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Reportado por IA

Un nuevo artículo en la revista Newcomer advierte contra la emoción en torno a los robots humanoides avivada por Elon Musk y vídeos promocionales. El autor Tom Dotan argumenta que los asistentes domésticos animatrónicos prácticos siguen muy lejanos en el futuro. El artículo cuestiona los plazos optimistas promovidos en la industria tecnológica.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar