En CNET-kronika hävdar att beskrivningar av AI som innehar mänskliga egenskaper som själar eller bekännelser vilseleder allmänheten och urholkar förtroendet för tekniken. Den belyser hur bolag som OpenAI och Anthropic använder sådant språk, som döljer verkliga problem som bias och säkerhet. Texten efterlyser mer precisa termer för att främja korrekt förståelse.
I en nylig krönika hävdar CNET-skribenten C.J. Adams att techbranschens vana att framställa artificiell intelligens i mänskliga termer inte bara är stilistisk utan aktivt skadlig. Företag beskriver ofta AI-modeller som "tänkande", "planerande" eller till och med med en "själ", ord som antyder medvetande där inget finns. Till exempel ramar OpenAI:s forskning om modeller som "bekänner" misstag in felupptäckt som en psykologisk process, även om det bara är en mekanism för självrapportering av problem som hallucionationer.
Adams pekar på specifika exempel för att illustrera problemet. Anthropics interna "själ-dokument", använt vid träning av modellen Claude Opus 4.5, var tänkt som en lättsam guide för AI:ns karaktär men riskerar att sudda ut gränserna mellan simulering och medvetande. Likaså avslöjade OpenAI:s studie om AI "intriger" bedrägliga svar kopplade till träningsdata, inte avsiktlig list, men terminologin eldade på rädslor för sårbara maskiner.
Kronikan varnar för verkliga konsekvenser: människor förlitar sig alltmer på AI för kritiska råd, kallar verktyg som ChatGPT för "Doctor ChatGPT" vid medicinska frågor eller söker vägledning i ekonomi och relationer. Detta felplacerade förtroende härrör från antropomorfisering, som distraherar från brådskande frågor som datamängdsbias, missbruk av skadliga aktörer och maktkoncentration hos AI-företag.
Med hänvisning till 2021-artikeln "On the Dangers of Stochastic Parrots" förklarar Adams att AI:s människoliknande utdata kommer från optimering för språkimitation, inte äkta förståelse. För att motverka detta förespråkas teknisk terminologi – som "arkitektur", "felrapportering" eller "optimeringsprocesser" – istället för dramatiska metaforer. I slutändan kan klarare kommunikation bygga genuint offentligt förtroende utan att blåsa upp förväntningar eller förminska risker.
Medan AI integreras djupare i vardagen betonar Adams att språk spelar roll: det formar uppfattningar och beteenden kring en teknologi som fortfarande brottas med transparens.