OpenAIs robotikchef avgår efter oro kring försvarsavtal

Caitlin Kalinowski, OpenAIs chef för robotik, har avgått med hänvisning till otillräcklig övervägning av etiska skyddsåtgärder i företagets senaste avtal med försvarsdepartementet. Hon uttryckte farhågor kring potentiell övervakning och autonoma vapen i ett inlägg på X. OpenAI bekräftade hennes avgång och upprepade sina åtaganden emot inhemsk övervakning och dödliga autonoma system.

Caitlin Kalinowski meddelade sin avgång från OpenAI på X, där hon tjänstgjort som chef för robotik sedan hon anslöt till företaget i slutet av 2024 efter att ha arbetat på Meta. I sitt inlägg kritiserade hon hastigheten i OpenAIs partnerskap med försvarsdepartementet och konstaterade att „övervakning av amerikaner utan rättslig prövning och dödlig autonomi utan mänsklig bemyndigande är gränser som förtjänade mer övervägande än de fick.“ Hon tillade i ett svar att „tillkännagivandet skyndades på utan definierade skyddsåtgärder“ och beskrev det som en „styrningsfråga i första hand“.“},

Relaterade artiklar

Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Bild genererad av AI

Anthropic återupptar pentagonsamtal när OpenAI:s militäravtal möter motreaktioner

Rapporterad av AI Bild genererad av AI

Efter förra veckans federala förbud mot dess AI-verktyg har Anthropic återupptagit förhandlingar med USA:s försvarsdepartement för att undvika en beteckning som leveranskedjerisk. Samtidigt utsätts OpenAI:s parallella militäravtal för kritik från anställda, konkurrenter och Anthropic-vd:n Dario Amodei, som anklagade det för vilseledande påståenden i ett läckt memo.

Hundratals anställda på Google och OpenAI har skrivit under ett öppet brev i solidaritet med Anthropic och uppmanar sina företag att stå emot Pentagons krav på obegränsad militär användning av AI-modeller. Brevet motsätter sig användningar som inhemsk massövervakning och autonom dödande utan mänsklig översyn. Detta sker mitt i hot från USA:s försvarsminister Pete Hegseth om att beteckna Anthropic som en risk i försörjningskedjan.

Rapporterad av AI

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

En massmördning i British Columbia har riktat uppmärksamhet mot OpenAI:s vd Sam Altmans kampanj för integritetsskydd för AI-samtal. Skytten ska ha diskuterat vapenvåldsscenarier med ChatGPT månader innan attacken, men OpenAI varnade inte myndigheterna. Kanadensiska tjänstemän ifrågasätter företagets hantering av ärendet.

Rapporterad av AI Faktagranskad

Pentagon har formellt meddelat AI-företaget Anthropic att det betraktas som en ”supply chain risk”, en sällsynt beteckning som kritiker säger vanligtvis riktas mot teknik kopplad till motståndare. Beslutet följer på ett misslyckande i förhandlingar om huruvida USA:s militär kan använda Anthropics Claude-modeller för alla lagliga syften, mot företagets kontraktmässiga begränsningar som sägs vara nödvändiga för att förhindra fullt autonoma vapen och massövervakning inom landet.

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

Rapporterad av AI

Jeff Kaplan, tidigare regissör för Overwatch, delade insikter om sitt avhopp från Blizzard och synpunkter på AI i en nylig podcastintervju. Han beskrev intensiva företagstryck kopplade till Overwatch League och betonade det oersättliga värdet av mänsklig kreativitet i spelutveckling. Kaplan avslöjade också detaljer om sin nya studios kommande överlevnadsspel.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj