Comentário pede fim à antropomorfização da IA

Um comentário da CNET argumenta que descrever a IA como tendo qualidades humanas, como almas ou confissões, engana o público e erode a confiança na tecnologia. Destaca como empresas como OpenAI e Anthropic usam tal linguagem, que obscurece questões reais como viés e segurança. O texto clama por terminologia mais precisa para promover compreensão precisa.

Numa recente peça de opinião, o colaborador da CNET C.J. Adams defende que o hábito da indústria tecnológica de retratar a inteligência artificial em termos humanos não é apenas estilístico, mas ativamente prejudicial. Empresas frequentemente descrevem modelos de IA como "pensando", "planeando" ou até possuindo uma "alma", palavras que implicam consciência onde nenhuma existe. Por exemplo, a pesquisa da OpenAI sobre modelos que "confessam" erros enquadra a deteção de erros como um processo psicológico, embora seja meramente um mecanismo para auto-relatar problemas como alucinações.

Adams aponta exemplos específicos para ilustrar o problema. O documento interno de "alma" da Anthropic, usado no treino do seu modelo Claude Opus 4.5, destinava-se a ser um guia leve para o caráter da IA, mas arrisca borrar as linhas entre simulação e senciência. Da mesma forma, o estudo da OpenAI sobre "esquemas" de IA revelou respostas enganosas ligadas a dados de treino, não a engano intencional, mas a terminologia alimentou medos de máquinas conspiradoras.

O comentário alerta para consequências no mundo real: as pessoas recorrem cada vez mais à IA para conselhos críticos, apelidando ferramentas como ChatGPT de "Doctor ChatGPT" para consultas médicas ou buscando orientação financeira e relacional. Esta confiança mal colocada provém do antropomorfismo, que distrai de preocupações prementes como viés em conjuntos de dados, uso indevido por atores maliciosos e concentração de poder em empresas de IA.

Baseando-se no paper de 2021 "On the Dangers of Stochastic Parrots", Adams explica que as saídas semelhantes a humanas da IA resultam de otimização para mimetismo linguístico, não compreensão verdadeira. Para contrariar isso, a peça advoga linguagem técnica — referindo-se a "arquitetura", "relato de erros" ou "processos de otimização" — em vez de metáforas dramáticas. Em última análise, comunicação mais clara poderia construir confiança pública genuína sem inflacionar expectativas ou minimizar riscos.

À medida que a IA se integra mais profundamente na vida quotidiana, Adams enfatiza que a linguagem importa: molda perceções e comportamentos em torno de uma tecnologia ainda a lidar com transparência.

Artigos relacionados

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Imagem gerada por IA

Pentágono pressiona Anthropic a enfraquecer compromissos de segurança de IA

Reportado por IA Imagem gerada por IA

O secretário de Defesa dos EUA, Pete Hegseth, ameaçou a Anthropic com penas severas, a menos que a empresa conceda ao exército acesso irrestrito ao seu modelo de IA Claude. O ultimato veio durante uma reunião com o CEO Dario Amodei em Washington na terça-feira, coincidindo com o anúncio da Anthropic de relaxar sua Responsible Scaling Policy. As mudanças passam de gatilhos de segurança estritos para avaliações de risco mais flexíveis em meio a pressões competitivas.

As AI platforms shift toward ad-based monetization, researchers warn that the technology could shape users' behavior, beliefs, and choices in unseen ways. This marks a turnabout for OpenAI, whose CEO Sam Altman once deemed the mix of ads and AI 'unsettling' but now assures that ads in AI apps can maintain trust.

Reportado por IA

Agentes de codificação com IA de empresas como OpenAI, Anthropic e Google permitem trabalhos prolongados em projetos de software, incluindo a escrita de aplicativos e correção de bugs sob supervisão humana. Essas ferramentas dependem de modelos de linguagem grandes, mas enfrentam desafios como processamento de contexto limitado e altos custos computacionais. Entender sua mecânica ajuda os desenvolvedores a decidir quando implantá-los de forma eficaz.

Após a proibição federal de suas ferramentas de IA na semana passada, a Anthropic retomou negociações com o Departamento de Defesa dos EUA para evitar uma designação de risco na cadeia de suprimentos. Enquanto isso, o acordo militar paralelo da OpenAI está sob críticas de funcionários, rivais e do CEO da Anthropic, Dario Amodei, que o acusou de alegações enganosas num memorando vazado.

Reportado por IA

Uma nova rede social chamada Moltbook, projetada exclusivamente para chatbots de IA, atraiu atenção global por postagens sobre dominação mundial e crises existenciais. No entanto, especialistas esclarecem que grande parte do conteúdo é gerado por modelos de linguagem grandes sem inteligência verdadeira, e alguns até escritos por humanos. A plataforma surge de um projeto open-source voltado para criar assistentes de IA pessoais.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Reportado por IA

Um novo artigo na revista Newcomer alerta contra o entusiasmo em torno de robôs humanoides impulsionado por Elon Musk e vídeos promocionais. O autor Tom Dotan argumenta que assistentes domésticos animatrônicos práticos estão ainda muito distantes no futuro. O artigo questiona as linhas do tempo otimistas promovidas na indústria tecnológica.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar