La IA emerge como actor clave en la guerra moderna

La inteligencia artificial (IA) ha emergido en el centro de la guerra moderna, desempeñando un papel de apoyo operativo en el reciente ataque estadounidense-israelí contra Irán. Se utilizaron Claude de Anthropic y Gotham de Palantir para evaluaciones de inteligencia e identificación de objetivos. Los expertos predicen una mayor expansión de la IA en aplicaciones militares.

En los masivos ataques conjuntos estadounidenses-israelíes contra Irán, la inteligencia artificial (IA) funcionó como una capa de apoyo operativo que comprimió el tiempo entre la recopilación de inteligencia y la ejecución en el campo de batalla. Según informes de medios estadounidenses, el ejército de EE.UU. utilizó el modelo de IA Claude de Anthropic para “evaluaciones de inteligencia, identificación de objetivos y simulación de escenarios de batalla”. La plataforma de datos Gotham de Palantir jugó un papel clave en la localización precisa de instalaciones militares clave del Cuerpo de la Guardia Revolucionaria Islámica de Irán y sus escondites de liderazgo. En la práctica, Gotham organizó y resumió vastos volúmenes de datos relacionados con la defensa de satélites, inteligencia de señales y otras fuentes clasificadas, mientras que Claude apoyó a los comandantes comparando y analizando diferentes escenarios operativos basados en esa información. Kim Gi-il, profesor de estudios militares en la Universidad Sangji, dijo: “El caso reciente muestra que la IA se ha vuelto tan central en la guerra moderna que no es exagerado llamarlo una ‘guerra de IA’.” Choi Byoung-ho, profesor colaborador en la Investigación de IA Inspirada en Humanos de la Universidad de Corea, señaló que la tecnología de IA probablemente será adoptada en todo el espectro de operaciones militares, desde el análisis de inteligencia hasta el combate directo. Agregó que Claude se utilizó probablemente principalmente para analizar información, procesar y resumir datos, e informar hasta la etapa justo antes de que se tome una decisión. Choi prevé un futuro en el que, ante una orden humana, una IA agentiva podría elaborar un plan de operaciones por sí sola, seleccionar armas apropiadas, elegir objetivos específicos y llevar a cabo el despliegue de armas, algo que Anthropic parece haber rechazado en este caso. Técnicamente, ya es posible, aunque los márgenes de error siguen siendo grandes, y la tecnología eventualmente avanzará hacia allí. Para Corea, el caso de EE.UU. destaca brechas estructurales, con empresas de defensa nacionales argumentando que los estándares que definen la “IA de defensa” siguen siendo ambiguos y el acceso a datos militares sensibles es limitado. El ejército busca sistemas listos para uso inmediato, creando fricciones. Kim dijo: “(El ejército) tiende a tener poca comprensión real de la madurez de la tecnología del sector privado o las restricciones que enfrentan las empresas, y esa desconexión está creando serias fricciones. Ampliar los puntos de contacto y cerrar esa brecha en velocidad y expectativas es uno de los mayores desafíos para la IA de defensa de Corea hoy.” El ataque a Irán adelanta las elecciones que Corea enfrentará al construir sus propios modelos fundacionales para defensa. Choi dijo: “El hecho de que se utilizara un modelo fundacional en una guerra significa que es realmente eficiente. Por lo tanto, (Corea) probablemente adaptará sus modelos para ser utilizados en la guerra también.” Los expertos advirtieron que la adopción militar ha superado la gobernanza global. Kim señaló: “Posiciones militares y éticas, valores e incluso perspectivas ideológicas ahora están colisionando. Necesita haber un acuerdo internacional, algún tipo de marco normativo o protocolo, que rija el uso militar de la IA de defensa, pero actualmente, tales estándares son prácticamente inexistentes.” Choi agregó que prevenir daños de modelos fundacionales por grandes tecnológicas en EE.UU., China y otros lugares requiere convenciones al estilo de la ONU, pero el desmantelamiento de marcos por Donald Trump ha dejado ausente la solidaridad internacional.

Artículos relacionados

Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Imagen generada por IA

El Pentágono cuestiona los límites antropogénicos del uso militar de Claude mientras se tensan las negociaciones del contrato

Reportado por IA Imagen generada por IA Verificado por hechos

Después de que el CEO de Anthropic, Dario Amodei, dijera a finales de febrero que la empresa no permitiría que su modelo Claude se utilizara para la vigilancia doméstica masiva ni para armas totalmente autónomas, altos cargos del Pentágono afirmaron que no tienen intención de utilizar la IA para la vigilancia doméstica e insisten en que las empresas privadas no pueden establecer límites vinculantes sobre la forma en que el ejército estadounidense emplea las herramientas de IA.

André Loesekrug-Pietri, head of the European innovation agency Jedi, states in a Handelsblatt interview that the US is using artificial intelligence on a large scale for the first time in the Gulf War against Iran. The "Maven" platform developed by Palantir fundamentally changes the conflict. He urges Europe to catch up technologically.

Reportado por IA

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

El CEO de Anthropic, Dario Amodei, afirmó que la empresa no cumplirá con la solicitud del Pentágono de eliminar salvaguardas de sus modelos de IA, a pesar de las amenazas de exclusión de sistemas de defensa. La disputa se centra en prevenir el uso de la IA en armas autónomas y vigilancia doméstica. La firma, que tiene un contrato de 200 millones de dólares con el Departamento de Defensa, enfatiza su compromiso con el uso ético de la IA.

Reportado por IA

Ucrania ha anunciado que compartirá sus datos del campo de batalla con aliados para ayudar a entrenar modelos de IA para el software de drones. La medida busca fortalecer la cooperación tecnológica en medio de la guerra en curso con Rusia. El ministro de Defensa Mykhailo Fedorov la describió como un paso hacia asociaciones de beneficio mutuo.

La principal empresa surcoreana de sistemas de defensa, Hanwha Aerospace, y el gigante de la publicación de videojuegos Krafton han acordado desarrollar conjuntamente tecnologías de inteligencia artificial (IA) física y establecer una empresa conjunta para su comercialización. La asociación combina la infraestructura de defensa y fabricación de Hanwha con la experiencia en investigación de IA y software de Krafton para construir un marco de cooperación a medio y largo plazo. Se espera que la colaboración se expanda a los sectores espacial y aeronáutico con el tiempo.

Reportado por IA

Los expertos argumentan que la IA física, que implica robots y máquinas autónomas interactuando con el mundo real, podría proporcionar una vía directa hacia la inteligencia artificial general. Los comentarios de Elon Musk sobre los robots Optimus de Tesla destacan este potencial, en medio de crecientes inversiones en tecnologías relacionadas. El año 2026 se ve como un punto de inflexión clave para el campo.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar