AI kan ännu inte skapa biovapen men riskerna tornar upp sig

Experter hävdar att dagens AI-teknik inte kan utforma dödliga biovapen oberoende, men snabba framsteg inom artificiell intelligens och bioteknik väcker allvarliga framtida farhågor. En analys i New Scientist undersöker hur AI-verktyg som AlphaFold förändrar biologin och potentiellt möjliggör missbruk av skadliga aktörer. Biosäkerhetsåtgärder måste utvecklas för att hantera dessa nya hot.

Skärningspunkten mellan artificiell intelligens och bioteknik accelererar vetenskaplig utveckling, men introducerar också risker relaterade till biovapenutveckling. Enligt en nylig artikel i New Scientist är AI-system ännu inte tillräckligt sofistikerade för att autonomt skapa dödliga patogener. Potentiella framtida missbruk kan dock inte ignoreras.

AI har redan gjort betydande framsteg inom biologi. Till exempel löste DeepMinds AlphaFold, lanserat 2020, det långvariga problemet med proteinstrukturprediktion, vilket möjliggör för forskare att designa nya proteiner med oöverträffad hastighet. Detta verktyg har demokratiserat tillgången till komplex biologisk data, vilket underlättar läkemedelsupptäckt och vaccindutveckling. Ändå kan samma kapabiliteter utnyttjas. Artikeln noterar att AI kan assistera vid konstruktion av virus eller bakterier med ökad virulens, även om nuvarande modeller kräver mänsklig översyn och saknar den fulla integration som behövs för oberoende biovapenframställning.

Biosäkerhetsexperter betonar att den primära oron inte är en okontrollerad AI, utan människor som använder AI för att sänka trösklarna för bioterrorism. En studie från 2023 av Centre for the Governance of AI visade att stora språkkmodeller som GPT-4 kan ge steg-för-steg-instruktioner för syntes av kemiska vapen, och överträffa mänskliga kemister i vissa uppgifter. Utökat till biologi kan AI optimera genetiska sekvenser för patogener, vilket gör det lättare för icke-experter att producera farliga agens.

Yoshua Bengio, en ledande AI-forskare, varnar i artikeln: "Vi är inte där än, men vi kan vara det snart." Han framhåller den dubbla användningen av AI-verktyg, som gynnar samhället samtidigt som de utgör risker. Likaså pekar bioetiker Kevin Esvelt på att open source AI-modeller kan spridas utan skyddsåtgärder, vilket förstärker globala hot.

Artikeln ger kontext om regleringsinsatser. I USA saknar Biologiska vapenkonventionen verkställighetsmekanismer, och AI-specifika riktlinjer är i sin linda. Biden-administrationens exekutiva order från 2023 om AI-säkerhet inkluderar bestämmelser för forskning med dubbla användningsområden, men internationellt samarbete behövs. Experter efterlyser vattenmärkning av AI-genererade biologiska designer och begränsad tillgång till känsliga modeller.

Även om ingen omedelbar kris finns, är tidsramen för oro kort. När AI integreras djupare i laboratorier – med verktyg som Rosalind, en AI för DNA-analys – är proaktiva steg väsentliga. Artikeln sluter att vaksamhet, inte panik, bör vägleda policyn, och säkerställa att AI:s fördelar överväger dess faror.

Denna analys understryker behovet av balanserade perspektiv: innovation driver framsteg, men okontrollerad utveckling kan möjliggöra katastrofalt missbruk.

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj