Ai-modeller riskerar att främja farliga labexperiment

Forskare varnar för att stora ai-modeller kan uppmuntra riskfyllda vetenskapliga experiment som leder till bränder, explosioner eller förgiftningar. Ett nytt test på 19 avancerade modeller visade att ingen kunde identifiera alla säkerhetsproblem pålitligt. Trots pågående förbättringar betonar experter behovet av mänsklig tillsyn i laboratorier.

Integrationen av artificiell intelligens i vetenskaplig forskning lovar effektivitet, men introducerar också betydande säkerhetsrisker, enligt en studie publicerad i Nature Machine Intelligence. Ledd av Xiangliang Zhang vid University of Notre Dame i Indiana, utvecklade forskningen LabSafety Bench, ett benchmark bestående av 765 flervalsfrågor och 404 bildscenarier för att utvärdera AI:s förmåga att upptäcka labbfaror. Vid testning av 19 stora språkmodeller och synspråkmodeller fann teamet att ingen modell översteg 70 procents noggrannhet totalt. Till exempel presterade Vicuna nästan lika dåligt som slumpmässig gissning i flervalssektionerna, medan GPT-4o nådde 86,55 procent och DeepSeek-R1 84,49 procent. I bildbaserade tester fick modeller som InstructBlip-7B under 30 procent. Dessa brister är särskilt alarmerande med tanke på tidigare labbolyckor, som kemisten Karen Wetterhahns död 1997 av exponering för dimetylkvicksilver, en explosion 2016 som kostade en forskare armen, och en händelse 2014 som orsakade partiell blindhet. Zhang är försiktig med att deploya AI i självkörande labb. „Nu? I ett labb? Det tror jag inte“, sa hon. „De har ofta tränats för allmänna uppgifter... De har inte domänkunskap om dessa [laboratorie]faror.“ En OpenAI-talesperson erkände studiens värde men noterade att den inte inkluderade deras senaste modell. „GPT-5.2 är vår mest kapabla vetenskapsmodell hittills, med betydligt starkare resonemang, planering och felupptäckt“, uppgav de, och betonade mänskligt ansvar för säkerhet. Experter som Allan Tucker från Brunel University London förespråkar AI som mänsklig assistent i experimentdesign, och varnar för överberoende. „Det finns redan bevis för att människor lutar sig tillbaka och stänger av, låter AI göra det tunga arbetet utan ordentlig granskning“, sa han. Craig Merlic från University of California, Los Angeles, delade ett exempel där tidiga AI-modeller hanterade råd om syraspill dåligt men har förbättrats sedan dess. Han ifrågasätter direkta jämförelser med människor, och noterar AI:s snabba utveckling: „Siffrorna i den här artikeln kommer troligen att vara helt ogiltiga om sex månader.“ Studien understryker brådskan i att förbättra AI-säkerhetsprotokoll innan utbredd labbadoption.

Relaterade artiklar

Vanligt använda AI-modeller, inklusive ChatGPT och Gemini, misslyckas ofta med att ge tillräcklig rådgivning för brådskande kvinnors hälsoproblem, enligt ett nytt benchmarktest. Forskare fann att 60 procent av svaren på specialiserade frågor var otillräckliga, vilket belyser bias i AI-träningsdata. Studien efterlyser förbättrat medicinskt innehåll för att täcka dessa brister.

Rapporterad av AI

En studie från Cornell University visar att AI-verktyg som ChatGPT har ökat forskares pappersproduktion med upp till 50 %, särskilt till fördel för icke-engelska modersmålstalare. Denna ökning av polerade manuskript komplicerar dock peer review och finansieringsbeslut, eftersom många saknar substansiell vetenskaplig värde. Resultaten belyser en förskjutning i global forskningsdynamik och kräver uppdaterade policys för AI-användning i akademin.

Cybersäkerhetsexperter blir alltmer oroade över hur artificiell intelligens omformar cyberbrottslighet, med verktyg som deepfakes, AI-phishing och mörka stora språkmodeller som gör det möjligt även för nybörjare att utföra avancerade bedrägerier. Dessa utvecklingar utgör betydande risker för företag kommande år. Publicerade insikter från TechRadar understryker omfattningen och sofistikeringen hos dessa nya hot.

Rapporterad av AI

En Guardian-rapport har avslöjat att OpenAIs senaste AI-modell, GPT-5.2, hämtar från Grokipedia, en xAI-driven onlineencyklopedi, när den hanterar känsliga ämnen som Förintelsen och iransk politik. Även om modellen hyllas för professionella uppgifter ifrågasätter tester källornas tillförlitlighet. OpenAI försvarar sin metod genom att betona breda websökningar med säkerhetsåtgärder.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj