Expertos argumentan que, aunque la tecnología actual de IA no puede diseñar de forma independiente bioweapons mortales, los rápidos avances en inteligencia artificial y biotecnología generan serias preocupaciones futuras. Un análisis de New Scientist explora cómo herramientas de IA como AlphaFold están transformando la biología, potencialmente permitiendo un mal uso por parte de actores maliciosos. Las medidas de bioseguridad deben evolucionar para abordar estas amenazas emergentes.
La intersección de la inteligencia artificial y la biotecnología está acelerando el progreso científico, pero también introduce riesgos relacionados con el desarrollo de bioweapons. Según un artículo reciente en New Scientist, los sistemas de IA aún no son lo suficientemente sofisticados para crear patógenos mortales de forma autónoma. Sin embargo, el potencial de mal uso futuro no puede ignorarse.
La IA ya ha logrado avances significativos en biología. Por ejemplo, AlphaFold de DeepMind, lanzado en 2020, resolvió el problema de larga data de la predicción de estructuras de proteínas, permitiendo a los investigadores diseñar nuevas proteínas con una velocidad sin precedentes. Esta herramienta ha democratizado el acceso a datos biológicos complejos, ayudando en el descubrimiento de fármacos y el desarrollo de vacunas. Sin embargo, las mismas capacidades podrían ser explotadas. El artículo señala que la IA podría asistir en la ingeniería de virus o bacterias con virulencia mejorada, aunque los modelos actuales requieren supervisión humana y carecen de la integración completa necesaria para la creación independiente de bioweapons.
Expertos en bioseguridad enfatizan que la principal preocupación no es la IA rebelde, sino los humanos que usan la IA para reducir las barreras al bioterrorismo. Un estudio de 2023 del Centre for the Governance of AI demostró que modelos de lenguaje grandes como GPT-4 podrían proporcionar instrucciones paso a paso para sintetizar armas químicas, superando a químicos humanos en algunas tareas. Extendiendo esto a la biología, la IA podría optimizar secuencias genéticas para patógenos, facilitando que no expertos produzcan agentes peligrosos.
Yoshua Bengio, un investigador líder en IA, advierte en el artículo: "Aún no estamos allí, pero podríamos llegar pronto." Destaca la naturaleza de doble uso de las herramientas de IA, que benefician a la sociedad mientras plantean riesgos. De manera similar, el bioeticista Kevin Esvelt señala que los modelos de IA de código abierto podrían proliferar sin salvaguardas, amplificando amenazas globales.
El artículo proporciona contexto sobre esfuerzos regulatorios. En EE.UU., la Convención sobre Armas Biológicas carece de mecanismos de aplicación, y las directrices específicas para IA son incipientes. La orden ejecutiva de 2023 de la administración Biden sobre seguridad en IA incluye disposiciones para investigación de doble uso, pero se necesita cooperación internacional. Los expertos llaman a marcar con marcas de agua los diseños biológicos generados por IA y restringir el acceso a modelos sensibles.
Aunque no existe una crisis inmediata, el plazo para la preocupación es corto. A medida que la IA se integra más profundamente en los laboratorios —con herramientas como Rosalind, una IA para análisis de ADN— son esenciales pasos proactivos. El artículo concluye que la vigilancia, no el pánico, debe guiar la política, asegurando que los beneficios de la IA superen sus peligros.
Este análisis subraya la necesidad de perspectivas equilibradas: la innovación impulsa el progreso, pero un avance sin control podría habilitar un mal uso catastrófico.