Los investigadores advierten que las herramientas de IA para diseñar proteínas novedosas podrían representar riesgos significativos para la bioseguridad. Los avances en modelos como AlphaFold han acelerado la ingeniería de proteínas, generando temores de mal uso en la creación de agentes biológicos dañinos. Los expertos piden regulaciones más estrictas para mitigar estas vulnerabilidades.
En octubre de 2025, un artículo en Ars Technica destacó las crecientes preocupaciones sobre el rol de la IA en el diseño de proteínas y sus posibles implicaciones para la bioseguridad. Sistemas de IA como AlphaFold de DeepMind y RoseTTAFold de la Universidad de Washington han revolucionado el campo al predecir estructuras de proteínas con una precisión sin precedentes, permitiendo la creación de proteínas completamente nuevas no encontradas en la naturaleza.
Esta capacidad, inicialmente elogiada por aplicaciones médicas como el desarrollo de fármacos, ahora alarma a los expertos en seguridad. 'Esta es una vulnerabilidad real de bioseguridad', declaró Tom Inglis, investigador de bioseguridad en el Centro para la Seguridad Sanitaria de Johns Hopkins. Él señaló que estas herramientas reducen la barrera para que no expertos diseñen proteínas, potencialmente incluyendo toxinas o patógenos. Por ejemplo, la IA podría ayudar en la modificación de virus o en el diseño de enzimas para bioweapons, un proceso que antes requería años de trabajo en laboratorio.
El artículo menciona que el gobierno de EE.UU. ha invertido fuertemente en investigación de proteínas impulsada por IA a través de iniciativas como los programas financiados por DARPA, que buscan aprovechar estas tecnologías para la defensa y la salud. Sin embargo, no existe un marco internacional integral para supervisar las aplicaciones de doble uso. El contexto de fondo revela que desde el avance de AlphaFold en 2020, se han predicho más de 200 millones de estructuras de proteínas, democratizando el acceso a través de plataformas de código abierto.
Las implicaciones se extienden a la seguridad global, con llamados de organizaciones como la Iniciativa para la Amenaza Nuclear para el reporte obligatorio de diseños de alto riesgo. Aunque la tecnología promete curas para enfermedades como el cáncer, su naturaleza de doble filo exige una supervisión equilibrada. No se han reportado incidentes específicos de mal uso, pero los expertos enfatizan medidas proactivas para prevenir amenazas futuras.
La discusión subraya el ritmo rápido de la IA en la biología, donde la innovación supera a la regulación.