Pesquisadores alertam que ferramentas de IA para projetar proteínas novas podem representar riscos significativos à biosegurança. Avanços em modelos como AlphaFold aceleraram a engenharia de proteínas, levantando temores de mau uso na criação de agentes biológicos prejudiciais. Especialistas pedem regulamentações mais fortes para mitigar essas vulnerabilidades.
Em outubro de 2025, um artigo na Ars Technica destacou as crescentes preocupações sobre o papel da IA no design de proteínas e suas implicações potenciais para a biosegurança. Sistemas de IA como o AlphaFold da DeepMind e o RoseTTAFold da Universidade de Washington revolucionaram o campo ao prever estruturas de proteínas com precisão sem precedentes, permitindo a criação de proteínas inteiramente novas não encontradas na natureza.
Essa capacidade, inicialmente elogiada por aplicações médicas como o desenvolvimento de medicamentos, agora alarma especialistas em segurança. 'Isso é uma vulnerabilidade real de biosegurança', afirmou Tom Inglis, pesquisador de biosegurança no Centro de Segurança em Saúde de Johns Hopkins. Ele apontou que essas ferramentas reduzem a barreira para não especialistas engenharem proteínas, potencialmente incluindo toxinas ou patógenos. Por exemplo, a IA poderia auxiliar na modificação de vírus ou no design de enzimas para armas biológicas, um processo que outrora exigia anos de trabalho em laboratório.
O artigo observa que o governo dos EUA investiu pesadamente em pesquisa de proteínas impulsionada por IA por meio de iniciativas como os programas financiados pela DARPA, que visam aproveitar essas tecnologias para defesa e saúde. No entanto, não existe um quadro internacional abrangente para supervisionar aplicações de uso duplo. O contexto de fundo revela que, desde o avanço do AlphaFold em 2020, mais de 200 milhões de estruturas de proteínas foram previstas, democratizando o acesso via plataformas de código aberto.
As implicações se estendem à segurança global, com apelos de organizações como a Iniciativa de Ameaça Nuclear para relatórios obrigatórios de designs de alto risco. Embora a tecnologia prometa curas para doenças como o câncer, sua natureza de duas faces exige supervisão equilibrada. Nenhum incidente específico de mau uso foi relatado, mas especialistas enfatizam medidas proativas para prevenir ameaças futuras.
A discussão ressalta o ritmo acelerado da IA na biologia, onde a inovação supera a regulamentação.