研究者らは、AIツールによる新規タンパク質設計が重大なバイオセキュリティリスクを伴う可能性があると警告している。AlphaFoldのようなモデルの進歩がタンパク質工学を加速させ、有害な生物剤の作成における悪用への懸念を高めている。専門家らはこれらの脆弱性を軽減するためのより厳格な規制を求めている。
2025年10月、Ars Technicaの記事は、AIのタンパク質設計における役割とそのバイオセキュリティへの潜在的な影響に対する懸念の高まりを強調した。DeepMindのAlphaFoldやワシントン大学のRoseTTAFoldなどのAIシステムは、前例のない精度でタンパク質構造を予測することで分野を革命化し、自然界に存在しない全く新しいタンパク質の作成を可能にした。
この能力は、当初、薬物開発などの医療応用で称賛されたが、今やセキュリティ専門家を警戒させている。「これは本物のバイオセキュリティの脆弱性です」と、ジョンズ・ホプキンス健康セキュリティセンターのバイオセキュリティ研究者であるTom Inglis氏は述べた。彼は、これらのツールが非専門家によるタンパク質工学の障壁を下げ、潜在的に毒素や病原体を含む可能性を指摘した。例えば、AIはウイルスを改変したり、生物兵器用の酵素を設計したりするのを支援でき、これはかつて何年もの実験室作業を必要としたプロセスである。
記事は、米国政府がDARPA資金提供のプログラムなどのイニシアチブを通じて、AI駆動のタンパク質研究に多額の投資を行っていることを指摘している。これらのプログラムは、これらの技術を防衛と健康のために活用することを目的としている。しかし、二重用途のアプリケーションを監督するための包括的な国際的な枠組みは存在しない。背景の文脈では、AlphaFoldの2020年の画期的な進歩以来、2億を超えるタンパク質構造が予測され、オープンソースプラットフォームを通じてアクセスが民主化されていることが明らかになっている。
影響はグローバルセキュリティに及び、Nuclear Threat Initiativeのような組織から、高リスク設計の義務的な報告を求める声が上がっている。この技術はがんなどの疾患の治療を約束するが、二面性を持つ性質はバランスの取れた監督を要求する。悪用の具体的な事例は報告されていないが、専門家らは将来の脅威を防ぐための積極的な措置を強調している。
この議論は、生物学におけるAIの急速な進展を強調しており、イノベーションが規制を上回っている。