La inteligencia artificial (IA) ha emergido en el centro de la guerra moderna, desempeñando un papel de apoyo operativo en el reciente ataque estadounidense-israelí contra Irán. Se utilizaron Claude de Anthropic y Gotham de Palantir para evaluaciones de inteligencia e identificación de objetivos. Los expertos predicen una mayor expansión de la IA en aplicaciones militares.
En los masivos ataques conjuntos estadounidenses-israelíes contra Irán, la inteligencia artificial (IA) funcionó como una capa de apoyo operativo que comprimió el tiempo entre la recopilación de inteligencia y la ejecución en el campo de batalla. Según informes de medios estadounidenses, el ejército de EE.UU. utilizó el modelo de IA Claude de Anthropic para “evaluaciones de inteligencia, identificación de objetivos y simulación de escenarios de batalla”. La plataforma de datos Gotham de Palantir jugó un papel clave en la localización precisa de instalaciones militares clave del Cuerpo de la Guardia Revolucionaria Islámica de Irán y sus escondites de liderazgo. En la práctica, Gotham organizó y resumió vastos volúmenes de datos relacionados con la defensa de satélites, inteligencia de señales y otras fuentes clasificadas, mientras que Claude apoyó a los comandantes comparando y analizando diferentes escenarios operativos basados en esa información. Kim Gi-il, profesor de estudios militares en la Universidad Sangji, dijo: “El caso reciente muestra que la IA se ha vuelto tan central en la guerra moderna que no es exagerado llamarlo una ‘guerra de IA’.” Choi Byoung-ho, profesor colaborador en la Investigación de IA Inspirada en Humanos de la Universidad de Corea, señaló que la tecnología de IA probablemente será adoptada en todo el espectro de operaciones militares, desde el análisis de inteligencia hasta el combate directo. Agregó que Claude se utilizó probablemente principalmente para analizar información, procesar y resumir datos, e informar hasta la etapa justo antes de que se tome una decisión. Choi prevé un futuro en el que, ante una orden humana, una IA agentiva podría elaborar un plan de operaciones por sí sola, seleccionar armas apropiadas, elegir objetivos específicos y llevar a cabo el despliegue de armas, algo que Anthropic parece haber rechazado en este caso. Técnicamente, ya es posible, aunque los márgenes de error siguen siendo grandes, y la tecnología eventualmente avanzará hacia allí. Para Corea, el caso de EE.UU. destaca brechas estructurales, con empresas de defensa nacionales argumentando que los estándares que definen la “IA de defensa” siguen siendo ambiguos y el acceso a datos militares sensibles es limitado. El ejército busca sistemas listos para uso inmediato, creando fricciones. Kim dijo: “(El ejército) tiende a tener poca comprensión real de la madurez de la tecnología del sector privado o las restricciones que enfrentan las empresas, y esa desconexión está creando serias fricciones. Ampliar los puntos de contacto y cerrar esa brecha en velocidad y expectativas es uno de los mayores desafíos para la IA de defensa de Corea hoy.” El ataque a Irán adelanta las elecciones que Corea enfrentará al construir sus propios modelos fundacionales para defensa. Choi dijo: “El hecho de que se utilizara un modelo fundacional en una guerra significa que es realmente eficiente. Por lo tanto, (Corea) probablemente adaptará sus modelos para ser utilizados en la guerra también.” Los expertos advirtieron que la adopción militar ha superado la gobernanza global. Kim señaló: “Posiciones militares y éticas, valores e incluso perspectivas ideológicas ahora están colisionando. Necesita haber un acuerdo internacional, algún tipo de marco normativo o protocolo, que rija el uso militar de la IA de defensa, pero actualmente, tales estándares son prácticamente inexistentes.” Choi agregó que prevenir daños de modelos fundacionales por grandes tecnológicas en EE.UU., China y otros lugares requiere convenciones al estilo de la ONU, pero el desmantelamiento de marcos por Donald Trump ha dejado ausente la solidaridad internacional.