AIはまだ生物兵器を作成できないがリスクが迫っている

専門家は、現在のAI技術が独立して致死的な生物兵器を設計できないものの、人工知能とバイオテクノロジーの急速な進歩が将来の深刻な懸念を引き起こしていると主張している。New Scientistの分析は、AlphaFoldのようなAIツールが生物学を変革し、悪意ある行為者による悪用を可能にする可能性を探求している。バイオセキュリティ対策は、これらの新興脅威に対処するために進化する必要がある。

人工知能とバイオテクノロジーの交差点は科学の進歩を加速させているが、生物兵器開発に関連するリスクももたらしている。New Scientistの最近の記事によると、AIシステムはまだ致死的な病原体を自律的に作成するほど洗練されていない。しかし、将来の悪用可能性を無視することはできない。

AIはすでに生物学で大きな進歩を遂げている。例えば、2020年に発売されたDeepMindのAlphaFoldは、蛋白質構造予測の長年の問題を解決し、研究者が前例のない速度で新しい蛋白質を設計できるようにした。このツールは複雑な生物学的データのアクセスを民主化し、薬の発見とワクチン開発を支援している。しかし、同じ能力が悪用される可能性がある。記事は、AIがウイルスや細菌の毒性を強化するエンジニアリングを支援できると指摘しているが、現在のモデルは人間の監督を必要とし、独立した生物兵器作成に必要な完全な統合を欠いている。

バイオセキュリティの専門家は、主な懸念は無法なAIではなく、AIを使ってバイオテロリズムの障壁を下げる人間であると強調している。2023年のAIガバナンスセンターの研究では、GPT-4のような大規模言語モデルが化学兵器の合成のためのステップバイステップの指示を提供でき、一部のタスクで人間の化学者を上回ることが示された。これを生物学に拡張すると、AIは病原体の遺伝子配列を最適化し、非専門家が危険な剤を生産しやすくする可能性がある。

AI研究者のリーダーであるYoshua Bengioは記事で警告している:「まだそこまで行っていないが、すぐに到達するかもしれない。」彼はAIツールの二重用途の性質を強調し、社会に利益をもたらす一方でリスクを伴う。同様に、バイオエシシストのKevin Esveltは、オープンソースのAIモデルがセーフガードなしに拡散し、グローバルな脅威を増大させる可能性を指摘している。

記事は規制努力の文脈を提供している。米国では、生物兵器条約に執行メカニズムがなく、AI特有のガイドラインは初期段階にある。バイデン政権の2023年のAI安全に関する大統領令は二重用途研究の規定を含んでいるが、国際協力が必要だ。専門家は、AI生成の生物学的設計に透かしを入れ、敏感なモデルへのアクセスを制限することを求めている。

即時の危機はないものの、懸念のタイムラインは短い。AIがラボに深く統合されるにつれ—DNA分析のためのAIツールであるRosalindのような—積極的なステップが不可欠だ。記事は、警戒心がパニックではなく政策を導くべきであり、AIの利益がその危険を上回ることを確保すべきだと結論づけている。

この分析は、バランスの取れた視点の必要性を強調している:イノベーションは進歩を駆動するが、無制限の進歩は壊滅的な悪用を可能にするかもしれない。

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否