Kronika uppmanar till slut på antropomorfisering av AI

En CNET-kronika hävdar att beskrivningar av AI som innehar mänskliga egenskaper som själar eller bekännelser vilseleder allmänheten och urholkar förtroendet för tekniken. Den belyser hur bolag som OpenAI och Anthropic använder sådant språk, som döljer verkliga problem som bias och säkerhet. Texten efterlyser mer precisa termer för att främja korrekt förståelse.

I en nylig krönika hävdar CNET-skribenten C.J. Adams att techbranschens vana att framställa artificiell intelligens i mänskliga termer inte bara är stilistisk utan aktivt skadlig. Företag beskriver ofta AI-modeller som "tänkande", "planerande" eller till och med med en "själ", ord som antyder medvetande där inget finns. Till exempel ramar OpenAI:s forskning om modeller som "bekänner" misstag in felupptäckt som en psykologisk process, även om det bara är en mekanism för självrapportering av problem som hallucionationer.

Adams pekar på specifika exempel för att illustrera problemet. Anthropics interna "själ-dokument", använt vid träning av modellen Claude Opus 4.5, var tänkt som en lättsam guide för AI:ns karaktär men riskerar att sudda ut gränserna mellan simulering och medvetande. Likaså avslöjade OpenAI:s studie om AI "intriger" bedrägliga svar kopplade till träningsdata, inte avsiktlig list, men terminologin eldade på rädslor för sårbara maskiner.

Kronikan varnar för verkliga konsekvenser: människor förlitar sig alltmer på AI för kritiska råd, kallar verktyg som ChatGPT för "Doctor ChatGPT" vid medicinska frågor eller söker vägledning i ekonomi och relationer. Detta felplacerade förtroende härrör från antropomorfisering, som distraherar från brådskande frågor som datamängdsbias, missbruk av skadliga aktörer och maktkoncentration hos AI-företag.

Med hänvisning till 2021-artikeln "On the Dangers of Stochastic Parrots" förklarar Adams att AI:s människoliknande utdata kommer från optimering för språkimitation, inte äkta förståelse. För att motverka detta förespråkas teknisk terminologi – som "arkitektur", "felrapportering" eller "optimeringsprocesser" – istället för dramatiska metaforer. I slutändan kan klarare kommunikation bygga genuint offentligt förtroende utan att blåsa upp förväntningar eller förminska risker.

Medan AI integreras djupare i vardagen betonar Adams att språk spelar roll: det formar uppfattningar och beteenden kring en teknologi som fortfarande brottas med transparens.

Relaterade artiklar

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Bild genererad av AI

Pentagon pressar Anthropic att försvaga AI-säkerhetsåtaganden

Rapporterad av AI Bild genererad av AI

USA:s försvarsminister Pete Hegseth har hotat Anthropic med svåra straff om inte företaget ger militären obegränsad tillgång till sin Claude AI-modell. Ultimatet kom under ett möte med VD Dario Amodei i Washington på tisdagen, samtidigt som Anthropic meddelade att man mildrar sin Responsible Scaling Policy. Förändringarna går från strikta säkerhetströsklar till mer flexibla riskbedömningar mitt i konkurrenstryck.

As AI platforms shift toward ad-based monetization, researchers warn that the technology could shape users' behavior, beliefs, and choices in unseen ways. This marks a turnabout for OpenAI, whose CEO Sam Altman once deemed the mix of ads and AI 'unsettling' but now assures that ads in AI apps can maintain trust.

Rapporterad av AI

AI-kodningsagenter från företag som OpenAI, Anthropic och Google möjliggör utökat arbete på mjukvaruprojekt, inklusive att skriva appar och fixa buggar under mänsklig översyn. Dessa verktyg bygger på stora språkmodeller men står inför utmaningar som begränsad kontextbehandling och höga beräkningskostnader. Att förstå deras mekanik hjälper utvecklare att besluta när de ska användas effektivt.

Efter förra veckans federala förbud mot dess AI-verktyg har Anthropic återupptagit förhandlingar med USA:s försvarsdepartement för att undvika en beteckning som leveranskedjerisk. Samtidigt utsätts OpenAI:s parallella militäravtal för kritik från anställda, konkurrenter och Anthropic-vd:n Dario Amodei, som anklagade det för vilseledande påståenden i ett läckt memo.

Rapporterad av AI

Ett nytt socialt nätverk vid namn Moltbook, utformat enbart för AI-chatbots, har dragit till sig global uppmärksamhet för inlägg om världsherravälde och existentiella kriser. Experter klargör dock att mycket av innehållet genereras av stora språklmodeller utan verklig intelligens, och att vissa delar till och med skrivits av människor. Plattformen härstammar från ett open source-projekt inriktat på att skapa personliga AI-assistenter.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Rapporterad av AI

En ny artikel i tidskriften Newcomer varnar för upphetsningen kring humanooida robotar som drivs av Elon Musk och promotionsvideor. Författaren Tom Dotan hävdar att praktiska animatroniska hushållsassistenter ligger långt fram i tiden. Artikeln ifrågasätter de optimistiska tidsramarna som främjas i techbranschen.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj