Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Imagen generada por IA

Anthropic reanuda conversaciones con el Pentágono mientras el acuerdo militar de OpenAI enfrenta rechazo

Imagen generada por IA

Tras la prohibición federal de la semana pasada sobre sus herramientas de IA, Anthropic ha reanudado las negociaciones con el Departamento de Defensa de EE.UU. para evitar una designación como riesgo en la cadena de suministro. Mientras tanto, el acuerdo militar paralelo de OpenAI está recibiendo críticas de empleados, rivales y el CEO de Anthropic, Dario Amodei, quien lo acusó de afirmaciones engañosas en un memo filtrado.

Con el objetivo de evitar ser etiquetada como riesgo en la cadena de suministro —normalmente reservado para adversarios extranjeros—, Anthropic ha vuelto a las conversaciones con el Pentágono, según informes de Financial Times y Bloomberg del 5 de marzo de 2026. El CEO Dario Amodei está negociando con el subsecretario de Defensa para Investigación e Ingeniería Emil Michael, después de que un contrato previo de 200 millones de dólares de 2025 se derrumbara por cláusulas que prohibían la vigilancia masiva.  nnAmodei detalló la ruptura en un memo al personal: El departamento ofreció respetar los términos de Anthropic si eliminaba una cláusula sobre 'análisis de datos adquiridos en masa' —precisamente el escenario de vigilancia que Anthropic buscaba bloquear—. Anthropic se negó, lo que llevó al Pentágono a amenazar con la cancelación y la etiqueta de riesgo. El presidente Trump ordenó entonces a las agencias federales que dejaran de usar la tecnología de Anthropic el 28 de febrero, aunque un período de transición de seis meses permitió el acceso continuado, incluyendo para planificar un ataque aéreo contra Irán.  nnAmodei criticó la respuesta de OpenAI como 'mentiras descaradas' en el memo, atribuyendo algunos de los problemas de Anthropic a la falta de 'alabanzas al estilo dictador a Trump', a diferencia del CEO de OpenAI, Sam Altman. OpenAI aseguró su propio acuerdo con el Departamento de Defensa poco después de la ruptura de Anthropic, con Altman afirmando en X que aconsejó contra la designación de riesgo y sugiriendo que Anthropic debería haber aceptado términos similares. OpenAI modificó más tarde su acuerdo para prohibir la vigilancia masiva sobre estadounidenses.  nnEl personal de OpenAI criticó el acuerdo en una reunión general, presionando a Altman por detalles; él reconoció descuidos internos en redes sociales. Previamente, OpenAI prohibía el uso militar pero permitía pruebas del Pentágono a través de Microsoft. La controversia impulsó a Claude de Anthropic al tope de la lista de apps gratuitas de Apple.  nn*Parte de la serie sobre la disputa del contrato de IA Anthropic-Pentágono.*

Qué dice la gente

Las discusiones en X se centran en Anthropic reanudando conversaciones con el Pentágono para evitar una designación de riesgo en la cadena de suministro después de negarse a eliminar salvaguardas de IA sobre vigilancia y armas autónomas. El memo filtrado de Dario Amodei acusa al acuerdo militar de OpenAI de 'mentiras descaradas' y 'teatro de seguridad', provocando reacciones adversas que incluyen boicots de usuarios a ChatGPT y elogios a la ética de Anthropic. Los sentimientos incluyen apoyo a los principios de seguridad de IA, críticas a la hipocresía de OpenAI, reportajes neutrales y escepticismo hacia la presión gubernamental.

Artículos relacionados

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Imagen generada por IA

Trump ordena prohibición federal de la IA de Anthropic para uso gubernamental

Reportado por IA Imagen generada por IA

El presidente de EE.UU. Donald Trump ha dirigido a todas las agencias federales a cesar inmediatamente el uso de las herramientas de IA de Anthropic en medio de una disputa sobre aplicaciones militares. La medida sigue semanas de enfrentamientos entre Anthropic y funcionarios del Pentágono respecto a restricciones en la IA para vigilancia masiva y armas autónomas. Se ha anunciado un período de eliminación gradual de seis meses.

El CEO de Anthropic, Dario Amodei, afirmó que la empresa no cumplirá con la solicitud del Pentágono de eliminar salvaguardas de sus modelos de IA, a pesar de las amenazas de exclusión de sistemas de defensa. La disputa se centra en prevenir el uso de la IA en armas autónomas y vigilancia doméstica. La firma, que tiene un contrato de 200 millones de dólares con el Departamento de Defensa, enfatiza su compromiso con el uso ético de la IA.

Reportado por IA

Cientos de empleados de Google y OpenAI han firmado una carta abierta en solidaridad con Anthropic, instando a sus empresas a resistir las demandas del Pentágono para el uso militar sin restricciones de modelos de IA. La carta se opone a usos que involucren vigilancia masiva doméstica y asesinatos autónomos sin supervisión humana. Esto llega en medio de amenazas del secretario de Defensa de EE.UU., Pete Hegseth, de etiquetar a Anthropic como un riesgo en la cadena de suministro.

Anthropic ha extendido su capacidad de memoria al nivel gratuito de su chatbot de IA Claude, permitiendo a los usuarios hacer referencia a conversaciones pasadas. La compañía también lanzó una herramienta para importar memorias de chatbots competidores como ChatGPT y Gemini. Esta actualización coincide con el aumento de popularidad de Claude en medio de una disputa con el Departamento de Defensa de EE.UU.

Reportado por IA

El 5 de febrero de 2026, Anthropic y OpenAI lanzaron simultáneamente productos que trasladan a los usuarios de chatear con IA a gestionar equipos de agentes de IA. Anthropic presentó Claude Opus 4.6 con equipos de agentes para desarrolladores, mientras que OpenAI reveló Frontier y GPT-5.3-Codex para flujos de trabajo empresariales. Estos lanzamientos coinciden con una caída de 285.000 millones de dólares en acciones de software en medio de temores por la disrupción de la IA en los proveedores tradicionales de SaaS.

En 2025, los agentes de IA se convirtieron en el centro del progreso de la inteligencia artificial, permitiendo que los sistemas usen herramientas y actúen de manera autónoma. Desde la teoría hasta las aplicaciones cotidianas, transformaron las interacciones humanas con los grandes modelos de lenguaje. Sin embargo, también trajeron desafíos como riesgos de seguridad y lagunas regulatorias.

Reportado por IA

El servidor Git MCP oficial de Anthropic contenía vulnerabilidades de seguridad preocupantes que podían encadenarse para impactos graves. Los problemas fueron destacados en un informe reciente de TechRadar. Surgieron detalles sobre riesgos potenciales para la infraestructura de la compañía de IA.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar