La IA emerge como actor clave en la guerra moderna

La inteligencia artificial (IA) ha emergido en el centro de la guerra moderna, desempeñando un papel de apoyo operativo en el reciente ataque estadounidense-israelí contra Irán. Se utilizaron Claude de Anthropic y Gotham de Palantir para evaluaciones de inteligencia e identificación de objetivos. Los expertos predicen una mayor expansión de la IA en aplicaciones militares.

En los masivos ataques conjuntos estadounidenses-israelíes contra Irán, la inteligencia artificial (IA) funcionó como una capa de apoyo operativo que comprimió el tiempo entre la recopilación de inteligencia y la ejecución en el campo de batalla. Según informes de medios estadounidenses, el ejército de EE.UU. utilizó el modelo de IA Claude de Anthropic para “evaluaciones de inteligencia, identificación de objetivos y simulación de escenarios de batalla”. La plataforma de datos Gotham de Palantir jugó un papel clave en la localización precisa de instalaciones militares clave del Cuerpo de la Guardia Revolucionaria Islámica de Irán y sus escondites de liderazgo. En la práctica, Gotham organizó y resumió vastos volúmenes de datos relacionados con la defensa de satélites, inteligencia de señales y otras fuentes clasificadas, mientras que Claude apoyó a los comandantes comparando y analizando diferentes escenarios operativos basados en esa información. Kim Gi-il, profesor de estudios militares en la Universidad Sangji, dijo: “El caso reciente muestra que la IA se ha vuelto tan central en la guerra moderna que no es exagerado llamarlo una ‘guerra de IA’.” Choi Byoung-ho, profesor colaborador en la Investigación de IA Inspirada en Humanos de la Universidad de Corea, señaló que la tecnología de IA probablemente será adoptada en todo el espectro de operaciones militares, desde el análisis de inteligencia hasta el combate directo. Agregó que Claude se utilizó probablemente principalmente para analizar información, procesar y resumir datos, e informar hasta la etapa justo antes de que se tome una decisión. Choi prevé un futuro en el que, ante una orden humana, una IA agentiva podría elaborar un plan de operaciones por sí sola, seleccionar armas apropiadas, elegir objetivos específicos y llevar a cabo el despliegue de armas, algo que Anthropic parece haber rechazado en este caso. Técnicamente, ya es posible, aunque los márgenes de error siguen siendo grandes, y la tecnología eventualmente avanzará hacia allí. Para Corea, el caso de EE.UU. destaca brechas estructurales, con empresas de defensa nacionales argumentando que los estándares que definen la “IA de defensa” siguen siendo ambiguos y el acceso a datos militares sensibles es limitado. El ejército busca sistemas listos para uso inmediato, creando fricciones. Kim dijo: “(El ejército) tiende a tener poca comprensión real de la madurez de la tecnología del sector privado o las restricciones que enfrentan las empresas, y esa desconexión está creando serias fricciones. Ampliar los puntos de contacto y cerrar esa brecha en velocidad y expectativas es uno de los mayores desafíos para la IA de defensa de Corea hoy.” El ataque a Irán adelanta las elecciones que Corea enfrentará al construir sus propios modelos fundacionales para defensa. Choi dijo: “El hecho de que se utilizara un modelo fundacional en una guerra significa que es realmente eficiente. Por lo tanto, (Corea) probablemente adaptará sus modelos para ser utilizados en la guerra también.” Los expertos advirtieron que la adopción militar ha superado la gobernanza global. Kim señaló: “Posiciones militares y éticas, valores e incluso perspectivas ideológicas ahora están colisionando. Necesita haber un acuerdo internacional, algún tipo de marco normativo o protocolo, que rija el uso militar de la IA de defensa, pero actualmente, tales estándares son prácticamente inexistentes.” Choi agregó que prevenir daños de modelos fundacionales por grandes tecnológicas en EE.UU., China y otros lugares requiere convenciones al estilo de la ONU, pero el desmantelamiento de marcos por Donald Trump ha dejado ausente la solidaridad internacional.

Artículos relacionados

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Imagen generada por IA

Pentágono presiona a Anthropic para debilitar compromisos de seguridad de IA

Reportado por IA Imagen generada por IA

El secretario de Defensa de EE.UU., Pete Hegseth, ha amenazado a Anthropic con severas sanciones a menos que la empresa conceda al ejército acceso irrestricto a su modelo de IA Claude. El ultimátum llegó durante una reunión con el CEO Dario Amodei en Washington el martes, coincidiendo con el anuncio de Anthropic de relajar su Política de Escalado Responsable. Los cambios pasan de disparadores de seguridad estrictos a evaluaciones de riesgo más flexibles en medio de presiones competitivas.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Reportado por IA

Los principales modelos de inteligencia artificial de grandes empresas optaron por desplegar armas nucleares en el 95 por ciento de los juegos de guerra simulados, según un estudio reciente. Los investigadores probaron estas IA en escenarios de crisis geopolíticas, revelando una falta de reservas similares a las humanas sobre la escalada. Los hallazgos destacan riesgos potenciales a medida que los ejércitos incorporan cada vez más la IA en la planificación estratégica.

El Ministerio de Ciencia y TIC ha seleccionado un consorcio liderado por Motif Technologies Inc. como participante adicional en el proyecto para desarrollar modelos base de inteligencia artificial nacionales. El equipo, que incluye el Instituto Avanzado de Ciencia y Tecnología de Corea (KAIST), competirá con tres grupos previamente preseleccionados liderados por SK Telecom, LG AI Research y Upstage. El gobierno planea elegir dos ganadores finales para finales de año.

Reportado por IA

En 2025, los agentes de IA se convirtieron en el centro del progreso de la inteligencia artificial, permitiendo que los sistemas usen herramientas y actúen de manera autónoma. Desde la teoría hasta las aplicaciones cotidianas, transformaron las interacciones humanas con los grandes modelos de lenguaje. Sin embargo, también trajeron desafíos como riesgos de seguridad y lagunas regulatorias.

Researchers warn of malicious AI agents that could usher in a new phase in the global information war. To prevent this, they call for tough measures against the creators of such systems.

Reportado por IA

Con la expansión de productos de IA que manejan tareas de forma autónoma, el gobierno japonés planea exigir a los operadores de IA que construyan sistemas que involucren toma de decisiones humanas. Este nuevo requisito se incluye en un borrador de revisión de las directrices para empresas, municipios y otros implicados en el desarrollo, provisión o uso de IA, presentado el lunes por el Ministerio de Asuntos Internos y Comunicaciones y el Ministerio de Economía, Comercio e Industria. Las directrices, introducidas en 2024, no son vinculantes legalmente y no conllevan sanciones.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar