Um comentário da CNET argumenta que descrever a IA como tendo qualidades humanas, como almas ou confissões, engana o público e erode a confiança na tecnologia. Destaca como empresas como OpenAI e Anthropic usam tal linguagem, que obscurece questões reais como viés e segurança. O texto clama por terminologia mais precisa para promover compreensão precisa.
Numa recente peça de opinião, o colaborador da CNET C.J. Adams defende que o hábito da indústria tecnológica de retratar a inteligência artificial em termos humanos não é apenas estilístico, mas ativamente prejudicial. Empresas frequentemente descrevem modelos de IA como "pensando", "planeando" ou até possuindo uma "alma", palavras que implicam consciência onde nenhuma existe. Por exemplo, a pesquisa da OpenAI sobre modelos que "confessam" erros enquadra a deteção de erros como um processo psicológico, embora seja meramente um mecanismo para auto-relatar problemas como alucinações.
Adams aponta exemplos específicos para ilustrar o problema. O documento interno de "alma" da Anthropic, usado no treino do seu modelo Claude Opus 4.5, destinava-se a ser um guia leve para o caráter da IA, mas arrisca borrar as linhas entre simulação e senciência. Da mesma forma, o estudo da OpenAI sobre "esquemas" de IA revelou respostas enganosas ligadas a dados de treino, não a engano intencional, mas a terminologia alimentou medos de máquinas conspiradoras.
O comentário alerta para consequências no mundo real: as pessoas recorrem cada vez mais à IA para conselhos críticos, apelidando ferramentas como ChatGPT de "Doctor ChatGPT" para consultas médicas ou buscando orientação financeira e relacional. Esta confiança mal colocada provém do antropomorfismo, que distrai de preocupações prementes como viés em conjuntos de dados, uso indevido por atores maliciosos e concentração de poder em empresas de IA.
Baseando-se no paper de 2021 "On the Dangers of Stochastic Parrots", Adams explica que as saídas semelhantes a humanas da IA resultam de otimização para mimetismo linguístico, não compreensão verdadeira. Para contrariar isso, a peça advoga linguagem técnica — referindo-se a "arquitetura", "relato de erros" ou "processos de otimização" — em vez de metáforas dramáticas. Em última análise, comunicação mais clara poderia construir confiança pública genuína sem inflacionar expectativas ou minimizar riscos.
À medida que a IA se integra mais profundamente na vida quotidiana, Adams enfatiza que a linguagem importa: molda perceções e comportamentos em torno de uma tecnologia ainda a lidar com transparência.