President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Imagen generada por IA

Trump ordena prohibición federal de la IA de Anthropic para uso gubernamental

Imagen generada por IA

El presidente de EE.UU. Donald Trump ha dirigido a todas las agencias federales a cesar inmediatamente el uso de las herramientas de IA de Anthropic en medio de una disputa sobre aplicaciones militares. La medida sigue semanas de enfrentamientos entre Anthropic y funcionarios del Pentágono respecto a restricciones en la IA para vigilancia masiva y armas autónomas. Se ha anunciado un período de eliminación gradual de seis meses.

El 28 de febrero de 2026, el presidente Donald Trump anunció que estaba instruyendo a todas las agencias federales a «cesar inmediatamente» el uso de las herramientas de IA de Anthropic. Esta directiva surge de tensiones continuas con la empresa de IA sobre el despliegue militar de su tecnología. Trump criticó a Anthropic en una publicación en Truth Social, afirmando: «Los chalados de izquierda en Anthropic han cometido un ERROR DESASTROSO al intentar PRESIONAR al Departamento de Guerra».El conflicto se intensificó después de que el Departamento de Defensa buscara modificar un acuerdo de julio de 2025 con Anthropic y otras empresas, con el objetivo de permitir el «uso legal» de la IA y eliminar restricciones. Anthropic se opuso, argumentando que tales cambios podrían habilitar armas letales completamente autónomas o vigilancia masiva sobre ciudadanos estadounidenses. El Pentágono mantiene que no utiliza la IA de estas maneras y no tiene planes de hacerlo. Anthropic fue el primer gran laboratorio de IA en asociarse con el ejército mediante un acuerdo de 200 millones de dólares el año pasado, desarrollando modelos personalizados como Claude Gov para sistemas clasificados, accesibles a través de las plataformas Palantir y Amazon. Estos modelos respaldan tareas como la redacción de informes, resumen de documentos, análisis de inteligencia y planificación militar.El secretario de Defensa Pete Hegseth se reunió con el CEO de Anthropic, Dario Amodei, a principios de esa semana, dando a la empresa hasta el viernes para aceptar los términos revisados. Hegseth elogió los productos de Anthropic, pero dirigió al Pentágono a designarla como «riesgo en la cadena de suministro» después de que las conversaciones se rompieran, generando preocupaciones en Silicon Valley sobre un acceso más amplio a su IA. Anthropic respondió con firmeza, declarando: «Ninguna cantidad de intimidación o castigo del Departamento de Guerra cambiará nuestra posición sobre la vigilancia masiva doméstica o las armas completamente autónomas». La empresa planea impugnar la designación en los tribunales.En contraste, OpenAI llegó a un acuerdo con el Departamento de Defensa el mismo día para desplegar sus modelos en redes clasificadas, incorporando principios de seguridad contra la vigilancia masiva y armas autónomas. El CEO Sam Altman señaló en X que el acuerdo incluye salvaguardas técnicas y respeto mutuo por la seguridad. El experto Michael Horowitz describió la disputa de Anthropic como innecesaria, centrada en casos de uso teóricos en lugar de actuales.El desacuerdo público se intensificó tras informes de que líderes militares estadounidenses utilizaron Claude para planificar una operación para capturar al presidente de Venezuela, Nicolás Maduro, aunque Anthropic negó interferir.

Qué dice la gente

Las discusiones en X sobre la prohibición federal de Trump a la IA de Anthropic revelan sentimientos diversos. Los partidarios, incluidos los seguidores de Trump, celebran la medida como una protección de la seguridad nacional contra una empresa 'despierta' que rechaza las necesidades militares. Los críticos acusan a la administración de intimidar a una empresa ética por rechazar la vigilancia masiva y armas autónomas. Los observadores neutrales destacan el debate ética vs. seguridad, el acuerdo contrastante de OpenAI con el DoD y posibles disrupciones en el mercado.

Artículos relacionados

President Trump signs executive order banning Anthropic AI from federal agencies amid Pentagon dispute, illustrated with banned AI screens, Pentagon, and courthouse symbols.
Imagen generada por IA

Trump orders US agencies to halt use of Anthropic AI technology

Reportado por IA Imagen generada por IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

El presidente de EE.UU., Donald Trump, ha dirigido a las agencias federales a cesar inmediatamente el uso de la IA Claude de Anthropic, tras la negativa de la compañía a permitir su empleo para vigilancia masiva o armas autónomas. La orden incluye un período de transición de seis meses. Esta decisión surge de los enfrentamientos continuos entre Anthropic y el Departamento de Defensa sobre restricciones a la IA.

Reportado por IA

El presidente de EE.UU., Donald Trump, declaró el viernes que está ordenando a las agencias gubernamentales que dejen de trabajar con Anthropic. El Pentágono planea declarar a la startup como un riesgo en la cadena de suministro, lo que supone un golpe importante tras un enfrentamiento sobre protecciones tecnológicas. Las agencias que utilizan los productos de la compañía tendrán un período de fase de salida de seis meses.

Anthropic ha extendido su capacidad de memoria al nivel gratuito de su chatbot de IA Claude, permitiendo a los usuarios hacer referencia a conversaciones pasadas. La compañía también lanzó una herramienta para importar memorias de chatbots competidores como ChatGPT y Gemini. Esta actualización coincide con el aumento de popularidad de Claude en medio de una disputa con el Departamento de Defensa de EE.UU.

Reportado por IA

En 2025, los agentes de IA se convirtieron en el centro del progreso de la inteligencia artificial, permitiendo que los sistemas usen herramientas y actúen de manera autónoma. Desde la teoría hasta las aplicaciones cotidianas, transformaron las interacciones humanas con los grandes modelos de lenguaje. Sin embargo, también trajeron desafíos como riesgos de seguridad y lagunas regulatorias.

Anthropic ha lanzado un plugin legal para su herramienta Claude Cowork, generando preocupaciones entre proveedores dedicados de IA legal. El plugin ofrece funciones útiles para la revisión de contratos y el cumplimiento normativo, pero no alcanza para reemplazar plataformas especializadas. Las empresas sudafricanas enfrentan obstáculos adicionales debido a las regulaciones de protección de datos.

Reportado por IA

La reciente actualización de Anthropic a su plataforma CoWork ha provocado reacciones significativas en el mercado en la industria del software. El sector del software de EE. UU. experimentó una venta masiva generalizada, perdiendo más de 1 billón de dólares en valor, según Fortune. Este desarrollo pone de manifiesto la incertidumbre de los inversores en torno a los flujos de trabajo nativos de IA y su impacto en las acciones de SaaS.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar