Un comentario de CNET argumenta que describir la IA como poseedora de cualidades humanas como almas o confesiones despista al público y erosiona la confianza en la tecnología. Destaca cómo empresas como OpenAI y Anthropic usan dicho lenguaje, que oculta problemas reales como sesgos y seguridad. El texto llama a una terminología más precisa para fomentar una comprensión acertada.
En una reciente pieza de opinión, el colaborador de CNET C.J. Adams sostiene que la costumbre de la industria tecnológica de representar la inteligencia artificial en términos humanos no es solo estilística, sino activamente perjudicial. Las empresas suelen describir modelos de IA como "pensando", "planificando" o incluso con un "alma", palabras que implican conciencia donde no existe ninguna. Por ejemplo, la investigación de OpenAI sobre modelos que "confiesan" errores presenta la detección de fallos como un proceso psicológico, aunque solo es un mecanismo para informar sobre problemas como alucinaciones.
Adams cita ejemplos concretos para ilustrar el problema. El "documento del alma" interno de Anthropic, usado en el entrenamiento de su modelo Claude Opus 4.5, pretendía ser una guía ligera para el carácter de la IA, pero corre el riesgo de difuminar la línea entre simulación y senciencia. De igual modo, el estudio de OpenAI sobre el "tramado" de IA mostró respuestas engañosas vinculadas a datos de entrenamiento, no a engaños intencionales, pero la terminología avivó temores de máquinas conspiradoras.
El comentario advierte de consecuencias en el mundo real: cada vez más personas dependen de la IA para consejos cruciales, llamando a herramientas como ChatGPT "Doctor ChatGPT" para consultas médicas o buscando orientación financiera y en relaciones. Esta confianza mal dirigida nace del antropomorfismo, que distrae de preocupaciones urgentes como sesgos en los datos, mal uso por actores maliciosos y concentración de poder en firmas de IA.
Apoyándose en el artículo de 2021 "On the Dangers of Stochastic Parrots", Adams explica que las salidas parecidas a humanas de la IA provienen de la optimización para imitar el lenguaje, no de una comprensión real. Para contrarrestarlo, la pieza defiende un lenguaje técnico —hablando de "arquitectura", "informes de errores" o "procesos de optimización"— en vez de metáforas sensacionalistas. Al final, una comunicación más clara podría generar confianza pública auténtica sin exagerar expectativas ni minimizar riesgos.
Mientras la IA se integra más en la vida cotidiana, Adams subraya que el lenguaje importa: da forma a las percepciones y conductas en torno a una tecnología que aún lidia con la transparencia.