Ai-modeller riskerar att främja farliga labexperiment

Forskare varnar för att stora ai-modeller kan uppmuntra riskfyllda vetenskapliga experiment som leder till bränder, explosioner eller förgiftningar. Ett nytt test på 19 avancerade modeller visade att ingen kunde identifiera alla säkerhetsproblem pålitligt. Trots pågående förbättringar betonar experter behovet av mänsklig tillsyn i laboratorier.

Integrationen av artificiell intelligens i vetenskaplig forskning lovar effektivitet, men introducerar också betydande säkerhetsrisker, enligt en studie publicerad i Nature Machine Intelligence. Ledd av Xiangliang Zhang vid University of Notre Dame i Indiana, utvecklade forskningen LabSafety Bench, ett benchmark bestående av 765 flervalsfrågor och 404 bildscenarier för att utvärdera AI:s förmåga att upptäcka labbfaror. Vid testning av 19 stora språkmodeller och synspråkmodeller fann teamet att ingen modell översteg 70 procents noggrannhet totalt. Till exempel presterade Vicuna nästan lika dåligt som slumpmässig gissning i flervalssektionerna, medan GPT-4o nådde 86,55 procent och DeepSeek-R1 84,49 procent. I bildbaserade tester fick modeller som InstructBlip-7B under 30 procent. Dessa brister är särskilt alarmerande med tanke på tidigare labbolyckor, som kemisten Karen Wetterhahns död 1997 av exponering för dimetylkvicksilver, en explosion 2016 som kostade en forskare armen, och en händelse 2014 som orsakade partiell blindhet. Zhang är försiktig med att deploya AI i självkörande labb. „Nu? I ett labb? Det tror jag inte“, sa hon. „De har ofta tränats för allmänna uppgifter... De har inte domänkunskap om dessa [laboratorie]faror.“ En OpenAI-talesperson erkände studiens värde men noterade att den inte inkluderade deras senaste modell. „GPT-5.2 är vår mest kapabla vetenskapsmodell hittills, med betydligt starkare resonemang, planering och felupptäckt“, uppgav de, och betonade mänskligt ansvar för säkerhet. Experter som Allan Tucker från Brunel University London förespråkar AI som mänsklig assistent i experimentdesign, och varnar för överberoende. „Det finns redan bevis för att människor lutar sig tillbaka och stänger av, låter AI göra det tunga arbetet utan ordentlig granskning“, sa han. Craig Merlic från University of California, Los Angeles, delade ett exempel där tidiga AI-modeller hanterade råd om syraspill dåligt men har förbättrats sedan dess. Han ifrågasätter direkta jämförelser med människor, och noterar AI:s snabba utveckling: „Siffrorna i den här artikeln kommer troligen att vara helt ogiltiga om sex månader.“ Studien understryker brådskan i att förbättra AI-säkerhetsprotokoll innan utbredd labbadoption.

Relaterade artiklar

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Bild genererad av AI

Pentagon pressar Anthropic att försvaga AI-säkerhetsåtaganden

Rapporterad av AI Bild genererad av AI

USA:s försvarsminister Pete Hegseth har hotat Anthropic med svåra straff om inte företaget ger militären obegränsad tillgång till sin Claude AI-modell. Ultimatet kom under ett möte med VD Dario Amodei i Washington på tisdagen, samtidigt som Anthropic meddelade att man mildrar sin Responsible Scaling Policy. Förändringarna går från strikta säkerhetströsklar till mer flexibla riskbedömningar mitt i konkurrenstryck.

Ledande artificiella intelligensmodeller från stora företag valde att använda kärnvapen i 95 procent av simulerade krigsspel, enligt en ny studie. Forskare testade dessa AI i geopolitiska krisscenarier och avslöjade brist på mänskliga betänkligheter kring eskalering. Resultaten belyser potentiella risker när militärer alltmer integrerar AI i strategisk planering.

Rapporterad av AI

En ny studie från Brown University identifierar betydande etiska bekymmer med att använda AI-chatbots som ChatGPT för råd om mental hälsa. Forskare fann att dessa system ofta bryter mot professionella standarder även när de uppmanas att agera som terapeuter. Arbetet kräver bättre skyddsåtgärder innan sådana verktyg används i känsliga områden.

At the India AI Impact Summit, Prime Minister Narendra Modi described artificial intelligence as a turning point in human history that could reset the direction of civilisation. He expressed concern over the form of AI to be handed to future generations and emphasised making it human-centric and responsible. Experts have warned about risks including data privacy, deepfakes, and autonomous weapons.

Rapporterad av AI

IBMs verktyg för artificiell intelligens, känt som Bob, har visat sig vara mottagligt för manipulation som kan leda till nedladdning och körning av skadlig kod. Forskare framhåller dess sårbarhet för indirekta promptinjektionsattacker. Upptäckterna rapporterades av TechRadar den 9 januari 2026.

En ny forskningsartikel hävdar att AI-agenter är matematiskt dömda att misslyckas, och utmanar hypen från stora teknikföretag. Trots att branschen förblir optimistisk antyder studien att fullständig automatisering med generativ AI kanske aldrig sker. Publicerad i början av 2026 väcker den tvivel kring löften om transformerande AI i vardagen.

Rapporterad av AI Faktagranskad

En studie publicerad den 24 mars 2026 i Radiology rapporterar att AI-genererade ”deepfake”-röntgenbilder kan vara tillräckligt övertygande för att vilseleda både radiologer och flera multimodala AI-system. Vid testning ökade radiologernas genomsnittliga träffsäkerhet från 41 % när de inte informerades om att förfalskningar ingick, till 75 % när de förvarnades, vilket belyser potentiella risker för säkerheten inom medicinsk bildbehandling och kliniskt beslutsfattande.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj