Pentagon may sever ties with Anthropic over AI safeguards

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

The potential rift between the Pentagon and Anthropic highlights tensions in AI development for military purposes. According to reports, the U.S. Department of Defense seeks to integrate advanced AI models into warfighting applications. However, Anthropic has expressed firm reservations, emphasizing the need for strict boundaries around the use of fully autonomous weapons and extensive domestic surveillance programs.

Anthropic's position underscores its commitment to ethical AI deployment, refusing to support military applications that could cross these lines. The company, known for its Claude language model, prioritizes safety measures that the Pentagon's plans appear to challenge. No official confirmation of the severance has been issued, but the disagreement points to broader debates on AI governance in defense contexts.

This development, reported on February 16, 2026, reflects ongoing scrutiny of how AI technologies are regulated in sensitive sectors.

Artículos relacionados

Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Imagen generada por IA

El Pentágono cuestiona los límites antropogénicos del uso militar de Claude mientras se tensan las negociaciones del contrato

Reportado por IA Imagen generada por IA Verificado por hechos

Después de que el CEO de Anthropic, Dario Amodei, dijera a finales de febrero que la empresa no permitiría que su modelo Claude se utilizara para la vigilancia doméstica masiva ni para armas totalmente autónomas, altos cargos del Pentágono afirmaron que no tienen intención de utilizar la IA para la vigilancia doméstica e insisten en que las empresas privadas no pueden establecer límites vinculantes sobre la forma en que el ejército estadounidense emplea las herramientas de IA.

El secretario de Defensa de EE.UU., Pete Hegseth, ha amenazado a Anthropic con severas sanciones a menos que la empresa conceda al ejército acceso irrestricto a su modelo de IA Claude. El ultimátum llegó durante una reunión con el CEO Dario Amodei en Washington el martes, coincidiendo con el anuncio de Anthropic de relajar su Política de Escalado Responsable. Los cambios pasan de disparadores de seguridad estrictos a evaluaciones de riesgo más flexibles en medio de presiones competitivas.

Reportado por IA Verificado por hechos

El Pentágono ha notificado formalmente a la empresa de IA Anthropic que se le considera un «riesgo en la cadena de suministro», una designación rara que los críticos dicen que suele dirigirse a tecnologías vinculadas a adversarios. El movimiento sigue a una ruptura en las negociaciones sobre si el ejército de EE.UU. puede usar los modelos Claude de Anthropic para todos los fines legales, frente a límites contractuales que la empresa dice que son necesarios para prevenir armas completamente autónomas y vigilancia masiva doméstica.

El presidente de EE.UU., Donald Trump, declaró el viernes que está ordenando a las agencias gubernamentales que dejen de trabajar con Anthropic. El Pentágono planea declarar a la startup como un riesgo en la cadena de suministro, lo que supone un golpe importante tras un enfrentamiento sobre protecciones tecnológicas. Las agencias que utilizan los productos de la compañía tendrán un período de fase de salida de seis meses.

Reportado por IA

Anthropic ha limitado el acceso a su modelo de IA Claude Mythos Preview debido a su capacidad superior para detectar y explotar vulnerabilidades de software, al tiempo que lanza el Project Glasswing—un consorcio con más de 45 empresas tecnológicas, incluidas Apple, Google y Microsoft—para parchear fallos y reforzar las defensas de forma colaborativa. El anuncio se produce tras las recientes filtraciones de datos en la firma.

Anthropic anunció el miércoles el lanzamiento de Claude Managed Agents, un nuevo producto destinado a simplificar la creación y el despliegue de agentes de IA para empresas. La herramienta proporciona a los desarrolladores una infraestructura lista para usar con el fin de crear sistemas de IA autónomos, abordando una barrera clave en la automatización de tareas laborales en medio del rápido crecimiento de la compañía en el sector empresarial.

Reportado por IA

El Departamento de Ciencia, Innovación y Tecnología del Reino Unido ha propuesto que Anthropic amplíe su oficina en Londres y considere una posible cotización bursátil dual, según un informe del Financial Times. Este esfuerzo surge tras una disputa entre la empresa de IA con sede en San Francisco y el Departamento de Defensa de los Estados Unidos. Los funcionarios buscan atraer a Anthropic en medio de las tensiones actuales.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar