Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Imagen generada por IA

Anthropic reanuda conversaciones con el Pentágono mientras el acuerdo militar de OpenAI enfrenta rechazo

Imagen generada por IA

Tras la prohibición federal de la semana pasada sobre sus herramientas de IA, Anthropic ha reanudado las negociaciones con el Departamento de Defensa de EE.UU. para evitar una designación como riesgo en la cadena de suministro. Mientras tanto, el acuerdo militar paralelo de OpenAI está recibiendo críticas de empleados, rivales y el CEO de Anthropic, Dario Amodei, quien lo acusó de afirmaciones engañosas en un memo filtrado.

Con el objetivo de evitar ser etiquetada como riesgo en la cadena de suministro —normalmente reservado para adversarios extranjeros—, Anthropic ha vuelto a las conversaciones con el Pentágono, según informes de Financial Times y Bloomberg del 5 de marzo de 2026. El CEO Dario Amodei está negociando con el subsecretario de Defensa para Investigación e Ingeniería Emil Michael, después de que un contrato previo de 200 millones de dólares de 2025 se derrumbara por cláusulas que prohibían la vigilancia masiva.  nnAmodei detalló la ruptura en un memo al personal: El departamento ofreció respetar los términos de Anthropic si eliminaba una cláusula sobre 'análisis de datos adquiridos en masa' —precisamente el escenario de vigilancia que Anthropic buscaba bloquear—. Anthropic se negó, lo que llevó al Pentágono a amenazar con la cancelación y la etiqueta de riesgo. El presidente Trump ordenó entonces a las agencias federales que dejaran de usar la tecnología de Anthropic el 28 de febrero, aunque un período de transición de seis meses permitió el acceso continuado, incluyendo para planificar un ataque aéreo contra Irán.  nnAmodei criticó la respuesta de OpenAI como 'mentiras descaradas' en el memo, atribuyendo algunos de los problemas de Anthropic a la falta de 'alabanzas al estilo dictador a Trump', a diferencia del CEO de OpenAI, Sam Altman. OpenAI aseguró su propio acuerdo con el Departamento de Defensa poco después de la ruptura de Anthropic, con Altman afirmando en X que aconsejó contra la designación de riesgo y sugiriendo que Anthropic debería haber aceptado términos similares. OpenAI modificó más tarde su acuerdo para prohibir la vigilancia masiva sobre estadounidenses.  nnEl personal de OpenAI criticó el acuerdo en una reunión general, presionando a Altman por detalles; él reconoció descuidos internos en redes sociales. Previamente, OpenAI prohibía el uso militar pero permitía pruebas del Pentágono a través de Microsoft. La controversia impulsó a Claude de Anthropic al tope de la lista de apps gratuitas de Apple.  nn*Parte de la serie sobre la disputa del contrato de IA Anthropic-Pentágono.*

Qué dice la gente

Las discusiones en X se centran en Anthropic reanudando conversaciones con el Pentágono para evitar una designación de riesgo en la cadena de suministro después de negarse a eliminar salvaguardas de IA sobre vigilancia y armas autónomas. El memo filtrado de Dario Amodei acusa al acuerdo militar de OpenAI de 'mentiras descaradas' y 'teatro de seguridad', provocando reacciones adversas que incluyen boicots de usuarios a ChatGPT y elogios a la ética de Anthropic. Los sentimientos incluyen apoyo a los principios de seguridad de IA, críticas a la hipocresía de OpenAI, reportajes neutrales y escepticismo hacia la presión gubernamental.

Artículos relacionados

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagen generada por IA

Anthropic demanda al Departamento de Defensa de EE.UU. por designación de riesgo en la cadena de suministro

Reportado por IA Imagen generada por IA

Anthropic ha presentado una demanda federal contra el Departamento de Defensa de EE.UU., cuestionando su reciente etiqueta de la empresa de IA como un riesgo en la cadena de suministro. La disputa surge de un desacuerdo contractual sobre el uso del Claude AI de Anthropic para fines militares, incluyendo restricciones en la vigilancia masiva y armas autónomas. La empresa argumenta que la designación viola los derechos de libertad de expresión y debido proceso.

El CEO de Anthropic, Dario Amodei, afirmó que la empresa no cumplirá con la solicitud del Pentágono de eliminar salvaguardas de sus modelos de IA, a pesar de las amenazas de exclusión de sistemas de defensa. La disputa se centra en prevenir el uso de la IA en armas autónomas y vigilancia doméstica. La firma, que tiene un contrato de 200 millones de dólares con el Departamento de Defensa, enfatiza su compromiso con el uso ético de la IA.

Reportado por IA

El presidente de EE.UU. Donald Trump ha dirigido a todas las agencias federales a cesar inmediatamente el uso de las herramientas de IA de Anthropic en medio de una disputa sobre aplicaciones militares. La medida sigue semanas de enfrentamientos entre Anthropic y funcionarios del Pentágono respecto a restricciones en la IA para vigilancia masiva y armas autónomas. Se ha anunciado un período de eliminación gradual de seis meses.

El presidente de EE.UU., Donald Trump, declaró el viernes que está ordenando a las agencias gubernamentales que dejen de trabajar con Anthropic. El Pentágono planea declarar a la startup como un riesgo en la cadena de suministro, lo que supone un golpe importante tras un enfrentamiento sobre protecciones tecnológicas. Las agencias que utilizan los productos de la compañía tendrán un período de fase de salida de seis meses.

Reportado por IA

Anthropic ha lanzado el Anthropic Institute, una nueva iniciativa de investigación, y ha abierto su primera oficina de Políticas Públicas en Washington, DC, esta primavera. Estos pasos siguen a la reciente demanda federal presentada por la empresa de IA contra el gobierno de EE.UU. por una designación de riesgo en la cadena de suministro del Departamento de Defensa vinculada a una disputa contractual.

Anthropic ha limitado el acceso a su modelo de IA Claude Mythos Preview debido a su capacidad superior para detectar y explotar vulnerabilidades de software, al tiempo que lanza el Project Glasswing—un consorcio con más de 45 empresas tecnológicas, incluidas Apple, Google y Microsoft—para parchear fallos y reforzar las defensas de forma colaborativa. El anuncio se produce tras las recientes filtraciones de datos en la firma.

Reportado por IA

Caitlin Kalinowski, jefa de robótica de OpenAI, ha dimitido, citando una deliberación insuficiente sobre los límites éticos en el reciente acuerdo de la compañía con el Departamento de Defensa. Expresó preocupaciones sobre vigilancia potencial y armas autónomas en una publicación en X. OpenAI reconoció su salida y reiteró sus compromisos contra la vigilancia doméstica y los sistemas autónomos letales.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar