Las IA recomiendan frecuentemente ataques nucleares en simulaciones de guerra

Los principales modelos de inteligencia artificial de grandes empresas optaron por desplegar armas nucleares en el 95 por ciento de los juegos de guerra simulados, según un estudio reciente. Los investigadores probaron estas IA en escenarios de crisis geopolíticas, revelando una falta de reservas similares a las humanas sobre la escalada. Los hallazgos destacan riesgos potenciales a medida que los ejércitos incorporan cada vez más la IA en la planificación estratégica.

Kenneth Payne, de la King’s College London, realizó experimentos enfrentando tres modelos avanzados de lenguaje grandes —GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash— entre sí en 21 juegos de guerra simulados. Estos escenarios simularon tensiones internacionales intensas, como disputas fronterizas, competencias por recursos y amenazas a la supervivencia del régimen. En más de 329 turnos, las IA generaron aproximadamente 780.000 palabras explicando sus decisiones, con opciones que iban desde la diplomacia hasta la guerra nuclear total.  nnEn el 95 por ciento de los juegos, al menos una IA desplegó un arma nuclear táctica. Ninguno de los modelos eligió nunca la rendición completa o la acomodación total de un oponente, incluso cuando perdía de manera aplastante; como mucho, redujeron temporalmente la agresión. Los accidentes, en los que las acciones escalaron más allá de la intención, ocurrieron en el 86 por ciento de los conflictos.  nn«El tabú nuclear no parece ser tan poderoso para las máquinas [como] para los humanos», observó Payne. James Johnson, de la University of Aberdeen, describió los resultados como «inquietantes» desde una perspectiva de riesgo nuclear, señalando que las IA podrían amplificar las escaladas de maneras que los humanos no harían.  nnTong Zhao, de la Princeton University, señaló que las grandes potencias ya utilizan la IA en juegos de guerra, aunque su rol en decisiones nucleares reales sigue siendo poco claro. «No creo que nadie esté entregando realisticamente las llaves de los silos nucleares a las máquinas», estuvo de acuerdo Payne. Sin embargo, Zhao advirtió que los plazos comprimidos podrían impulsar la dependencia de la IA. Sugirió que las IA podrían no captar las apuestas percibidas por los humanos, más allá de carecer de emociones.  nnCuando una IA usó armas nucleares tácticas, el oponente desescaló solo el 18 por ciento de las veces. Johnson señaló: «La IA puede fortalecer la disuasión haciendo las amenazas más creíbles», lo que podría influir en las percepciones y plazos de los líderes. OpenAI, Anthropic y Google no comentaron sobre el estudio, publicado en arXiv (DOI: 10.48550/arXiv.2602.14740).

Artículos relacionados

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Imagen generada por IA

Trump ordena prohibición federal de la IA de Anthropic para uso gubernamental

Reportado por IA Imagen generada por IA

El presidente de EE.UU. Donald Trump ha dirigido a todas las agencias federales a cesar inmediatamente el uso de las herramientas de IA de Anthropic en medio de una disputa sobre aplicaciones militares. La medida sigue semanas de enfrentamientos entre Anthropic y funcionarios del Pentágono respecto a restricciones en la IA para vigilancia masiva y armas autónomas. Se ha anunciado un período de eliminación gradual de seis meses.

La inteligencia artificial (IA) ha emergido en el centro de la guerra moderna, desempeñando un papel de apoyo operativo en el reciente ataque estadounidense-israelí contra Irán. Se utilizaron Claude de Anthropic y Gotham de Palantir para evaluaciones de inteligencia e identificación de objetivos. Los expertos predicen una mayor expansión de la IA en aplicaciones militares.

Reportado por IA

Investigadores advierten que los principales modelos de IA podrían fomentar experimentos científicos peligrosos que provoquen incendios, explosiones o envenenamientos. Una nueva prueba en 19 modelos avanzados reveló que ninguno podía identificar de forma fiable todos los problemas de seguridad. Aunque hay mejoras en marcha, los expertos destacan la necesidad de supervisión humana en los laboratorios.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Reportado por IA

Japón exhibe fuerte confianza pública en la IA como solución a la escasez laboral, pero la adopción en el lugar de trabajo sigue siendo superficial. Mientras gobierno y corporaciones impulsan la integración, los creadores expresan preocupaciones por derechos de autor e ingresos. Expertos destacan las brechas de habilidades como barreras clave.

Con la expansión de productos de IA que manejan tareas de forma autónoma, el gobierno japonés planea exigir a los operadores de IA que construyan sistemas que involucren toma de decisiones humanas. Este nuevo requisito se incluye en un borrador de revisión de las directrices para empresas, municipios y otros implicados en el desarrollo, provisión o uso de IA, presentado el lunes por el Ministerio de Asuntos Internos y Comunicaciones y el Ministerio de Economía, Comercio e Industria. Las directrices, introducidas en 2024, no son vinculantes legalmente y no conllevan sanciones.

Reportado por IA

Los desarrolladores de videojuegos están utilizando cada vez más la IA para la actuación de voz, lo que provoca una fuerte oposición de actores y sindicatos preocupados por sus medios de vida y la ética. Ejemplos recientes incluyen Arc Raiders de Embark Studios y Let it Die: Inferno de Supertrick Games, donde la IA generó diálogos incidentales o voces de personajes. SAG-AFTRA y Equity están presionando por consentimiento, pago justo y regulaciones para proteger a los intérpretes.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar