El secretario de Defensa de EE.UU., Pete Hegseth, ha amenazado a Anthropic con severas sanciones a menos que la empresa conceda al ejército acceso irrestricto a su modelo de IA Claude. El ultimátum llegó durante una reunión con el CEO Dario Amodei en Washington el martes, coincidiendo con el anuncio de Anthropic de relajar su Política de Escalado Responsable. Los cambios pasan de disparadores de seguridad estrictos a evaluaciones de riesgo más flexibles en medio de presiones competitivas.
El 25 de febrero de 2026, el secretario de Defensa de EE.UU., Pete Hegseth, convocó al CEO de Anthropic, Dario Amodei, a Washington para discutir las políticas de uso de IA de la empresa. Hegseth exigió que Anthropic permitiera que su modelo Claude se utilizara en todas las aplicaciones militares legales, incluidas áreas potencialmente sensibles como la vigilancia masiva y misiones letales sin supervisión humana directa. Anthropic ha expresado preocupaciones sobre la fiabilidad de los modelos actuales de IA para tales usos, ofreciendo en su lugar aplicar sus políticas de uso estándar a contratos gubernamentales mientras prohíbe aplicaciones como armas autónomas o vigilancia doméstica sin intervención humana. Hegseth estableció un plazo límite el viernes 27 de febrero, advirtiendo de que el incumplimiento podría llevar a la invocación de la Ley de Producción para la Defensa, la designación de Anthropic como riesgo en la cadena de suministro y la exclusión de contratos del Departamento de Defensa. La empresa tiene un contrato de 200 millones de dólares con el Pentágono, y Claude ha sido utilizado en operaciones clasificadas, como la captura del líder venezolano Nicolás Maduro en enero de 2026 en colaboración con Palantir. El mismo día, Anthropic anunció modificaciones a su Política de Escalado Responsable, alejándose de compromisos estrictos para detener el entrenamiento de modelos a menos que la seguridad pudiera garantizarse de antemano. La política actualizada adopta un enfoque relativo, enfatizando informes de riesgo y hojas de ruta de seguridad fronteriza para proporcionar transparencia. Anthropic citó un 'problema de acción colectiva' en el panorama competitivo de la IA, señalando que pausas unilaterales desventajarían a los desarrolladores responsables mientras otros avanzan sin mitigaciones. El director científico Jared Kaplan declaró: 'Sentimos que no ayudaría realmente a nadie si dejáramos de entrenar modelos de IA', destacando el rápido ritmo del progreso de la industria. Chris Painter de METR describió el cambio como comprensible pero advirtió sobre un posible efecto de 'hervir la rana', donde las medidas de seguridad flexibles podrían erosionarse con el tiempo. Anthropic mantiene que está participando en conversaciones de buena fe para apoyar la seguridad nacional de manera responsable. El Pentágono también está negociando con rivales como OpenAI, Google y xAI para integrar sus tecnologías en sistemas militares.