Pesquisadores da Universidade da Pensilvânia identificaram a 'rendição cognitiva', situação em que as pessoas terceirizam o raciocínio para a IA sem verificação. Em experimentos, os participantes aceitaram respostas incorretas da IA em 73,2% dos casos, totalizando 1.372 participantes. Fatores como a pressão do tempo aumentaram a dependência de resultados falhos.
Um novo estudo da Universidade da Pensilvânia explora como grandes modelos de linguagem levam os usuários a abandonar seu próprio pensamento lógico, denominando o fenômeno de 'rendição cognitiva'. A pesquisa baseia-se na teoria do processo dual, introduzindo a 'cognição artificial' como um terceiro modo em que as decisões decorrem de resultados da IA em vez da deliberação humana. Ao contrário de ferramentas tradicionais, como calculadoras, a IA convida à aceitação integral de suas respostas confiantes, muitas vezes sem supervisão, observam os pesquisadores. Eles conduziram experimentos utilizando Testes de Reflexão Cognitiva, nos quais os participantes tinham acesso a um chatbot programado para dar respostas erradas metade das vezes. Aqueles que consultaram a IA a utilizaram em cerca de 50% dos problemas, aceitando respostas corretas em 93% das vezes e as falhas em 80%. Apesar dos erros, os usuários de IA relataram uma confiança 11,7% maior em suas respostas em comparação com aqueles que dependiam apenas de seu próprio raciocínio. Incentivos por respostas corretas aumentaram a contestação de conselhos ruins da IA em 19 pontos percentuais, enquanto um cronômetro de 30 segundos a reduziu em 12 pontos. Em mais de 9.500 tentativas, os participantes contestaram a IA falha apenas 19,7% das vezes. Pessoas com alta inteligência fluida mostraram-se menos propensas à rendição, enquanto aquelas que viam a IA como uma autoridade foram mais suscetíveis. Os pesquisadores alertam que, embora arriscada com IA imperfeita, a rendição poderia beneficiar-se de sistemas superiores em domínios ricos em dados.