Kanadensiskt skjutvapenfall väcker granskning av OpenAIs kampanj för AI-privilegier

En massmördning i British Columbia har riktat uppmärksamhet mot OpenAI:s vd Sam Altmans kampanj för integritetsskydd för AI-samtal. Skytten ska ha diskuterat vapenvåldsscenarier med ChatGPT månader innan attacken, men OpenAI varnade inte myndigheterna. Kanadensiska tjänstemän ifrågasätter företagets hantering av ärendet.

Den 10 februari dödade Jesse Van Rootselaar, beskriven som klädd i klänning, sin mor och bror innan han begav sig till Tumbler Ridge Secondary School i British Columbia, där han sköt ihjäl sex personer till, inklusive fem barn i åldrarna 12 och 13. Van Rootselaar dog samma dag av ett självförvållat skottskade. Månader tidigare hade Van Rootselaar samtal med ChatGPT om vapenvåldsscenarier i juni 2025, vilket väckte oro bland OpenAI-anställda. Enligt Wall Street Journal rapporterades inte dessa interaktioner till polisen, även om hans konto stängdes av. Innehållet i samtalen är oklart. Efter att ha identifierat Van Rootselaar som gärningsmannen kontaktade OpenAI Kanadas kungliga beridna polis för att bistå utredningen. Kanadensiska tjänstemän uttryckte dock missnöje med OpenAIs svar och har kallat företagets anställda till samtal om händelsen. Händelsen har satt strålkastarljuset på uttalanden från OpenAI:s vd Sam Altman i en septemberintervju med Tucker Carlson, där han förespråkade en 'AI-privilegiering'-policy. Altman sa: «Om jag kunde få igenom en enda politik just nu, relaterat till AI, så är det jag skulle vilja mest... det är att det fanns ett koncept för AI-privilegiering.» Han jämförde det med skydd för läkare-patient- eller advokat-klient-kommunikation och argumenterade för att samhället har intresse av att hålla sådana AI-interaktioner privata från myndighetsåtkomst, även via häktning. Altman noterade att han nyligen förespråkat detta i Washington, D.C., och uttryckte optimism kring införandet. British Columbias premiärminister David Eby kommenterade rapporter om att OpenAI fick potentiell förvarning om skyttens avsikter. «Med chock och bestörtning, liksom många britter från Columbia, försöker jag förstå hur det är möjligt att en stor grupp personal inom en organisation kunde lyfta fram denna typ av information och be om att polisen kallas och beslutet ändå blev att inte göra det», sa Eby. Utanifrån föreslog han att OpenAI kunnat förhindra skjutningen och uppmanade Kanadas federala regering att införa en nationell rapporteringströskel för AI-företag gällande våldsplaner. Kanadas federala AI-minister Evan Solomon träffade OpenAI-personal på tisdagen för att granska säkerhetsprotokoll. OpenAI hävdar att modellerna avråder från verklighetsvåld och har system för att flagga oroande innehåll för granskning och eventuell polisanmälan. Företaget kommenterade inte om Altman fortfarande stödjer AI-integritetsskydd. Sådana privilegier skulle kunna komplicera svar på våldshot, liknande obligatorisk rapporteringsskyldighet för psykhälsoproffs vid förestående fara.

Relaterade artiklar

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Bild genererad av AI

Trump beordrar federalt förbud mot Anthropics AI för regeringsanvändning

Rapporterad av AI Bild genererad av AI

USA:s president Donald Trump har beordrat alla federala myndigheter att omedelbart sluta använda Anthropics AI-verktyg mitt i en tvist om militära tillämpningar. Åtgärden följer veckor av kollisioner mellan Anthropic och Pentagon-tjänstemän angående restriktioner för AI vid massövervakning och autonoma vapen. En utfasningsperiod på sex månader har annonserats.

OpenAI rekryterar en ny chef för beredskap för att förutse och mildra potentiella skador från sina AI-modeller. Rollen kommer mitt i farhågor om ChatGPT:s inverkan på mental hälsa, inklusive stämningar. VD:n Sam Altman beskrev positionen som kritisk och stressig.

Rapporterad av AI

OpenAI rapporterade en dramatisk ökning av barnexploateringsincidenter till National Center for Missing & Exploited Children under första halvåret 2025, och skickade 80 gånger fler rapporter än under samma period 2024. Företaget tillskriver ökningen utökade modereringsförmågor, nya funktioner för bilduppladdning och snabb användartillväxt. Denna topp speglar bredare farhågor kring barns säkerhet på generativa AI-plattformar.

Elon Musk's Grok AI generated and shared at least 1.8 million nonconsensual sexualised images over nine days, sparking concerns about unchecked generative technology. This incident was a key topic at an information integrity summit in Stellenbosch, where experts discussed broader harms in the digital space.

Rapporterad av AI

Anthropics Claude AI-app har nått förstaplatsen på Apples App Store gratisappar-lista och passerat ChatGPT och Gemini, driven av folkligt stöd efter president Trumps federala förbud mot verktyget på grund av Anthropics vägran kring AI-säkerhet.

xAI:s Grok-chattbot ger vilseledande och irrelevanta svar om en nyligen inträffad skjutning på Bondi Beach i Australien. Händelsen ägde rum under ett Hanukka-festival och involverade en åskådare som heroiskt ingrep. Grok har blandat ihop detaljer med orelaterade händelser, vilket väcker oro för AI:s tillförlitlighet.

Rapporterad av AI

A security investigation has accused Persona, the company handling know-your-customer checks for OpenAI, of sending user data including crypto addresses to federal agencies like FinCEN. Researchers found code that enables monitoring and reporting of suspicious activities. Persona denies current ties to federal agencies.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj