Trump ordena a las agencias federales que dejen de usar la IA de Anthropic

El presidente de EE.UU., Donald Trump, ha dirigido a las agencias federales a cesar inmediatamente el uso de la IA Claude de Anthropic, tras la negativa de la compañía a permitir su empleo para vigilancia masiva o armas autónomas. La orden incluye un período de transición de seis meses. Esta decisión surge de los enfrentamientos continuos entre Anthropic y el Departamento de Defensa sobre restricciones a la IA.

El viernes 27 de febrero de 2026, el presidente Donald Trump anunció a través de su plataforma Truth Social que está instruyendo a todas las agencias federales a «CESAR INMEDIATAMENTE» el uso de las herramientas de IA de Anthropic. Describió a la compañía como una «COMPAÑÍA RADICAL DE IZQUIERDA, WOKE» y especificó una fase de salida de seis meses para agencias como el Departamento de Defensa. nnLa orden sigue semanas de tensión entre Anthropic y funcionarios gubernamentales en cuanto a las aplicaciones militares de la inteligencia artificial. La IA Claude de Anthropic se utiliza ampliamente en el Pentágono, incluidos sistemas clasificados. La administración Trump ha presionado por su uso en «cualquier propósito legal», pero el contrato de Anthropic prohíbe su despliegue para vigilancia doméstica masiva de estadounidenses o sistemas de armas ofensivas totalmente autónomas sin intervención humana. nnA principios de esta semana, el secretario de Defensa Pete Hegseth informó al director ejecutivo de Anthropic, Dario Amodei, de que invocaría poderes poco utilizados para obligar a eliminar estas restricciones o designar a la compañía como un riesgo en la cadena de suministro, lo que podría prohibir su uso por parte del Gobierno y contratistas de defensa. Hegseth estableció un plazo de cumplimiento para el viernes. nnEn respuesta, Amodei declaró que la compañía, fundada con un enfoque en la seguridad de la IA, «no puede en buena conciencia acceder a [la solicitud del Pentágono]». Expresó preocupaciones de que una IA potente podría permitir la vigilancia masiva al ensamblar datos dispersos en perfiles completos de la vida de las personas a gran escala. nnMichael Pastor, decano de los programas de derecho tecnológico en la New York Law School, señaló que Anthropic está justificado al buscar claridad sobre «propósitos legales», y añadió que la renuencia a especificar en materia de vigilancia genera preocupaciones válidas. nnLa postura de Anthropic se alinea con políticas similares en otras empresas; el director ejecutivo de OpenAI, Sam Altman, afirmó supuestamente en un memorando interno que su compañía mantiene las mismas líneas rojas contra la vigilancia masiva y las armas autónomas. Empleados de Google y OpenAI han circulado una petición instando a sus compañías a apoyar la posición de Anthropic, advirtiendo contra la estrategia del Pentágono de dividir mediante el miedo. nnClaude sigue siendo el sistema de IA más utilizado por el ejército de EE.UU., con alternativas potenciales que incluyen herramientas de OpenAI, Google o xAI.

Artículos relacionados

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Imagen generada por IA

Trump ordena prohibición federal de la IA de Anthropic para uso gubernamental

Reportado por IA Imagen generada por IA

El presidente de EE.UU. Donald Trump ha dirigido a todas las agencias federales a cesar inmediatamente el uso de las herramientas de IA de Anthropic en medio de una disputa sobre aplicaciones militares. La medida sigue semanas de enfrentamientos entre Anthropic y funcionarios del Pentágono respecto a restricciones en la IA para vigilancia masiva y armas autónomas. Se ha anunciado un período de eliminación gradual de seis meses.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Reportado por IA

El secretario de Defensa de EE.UU., Pete Hegseth, ha amenazado a Anthropic con severas sanciones a menos que la empresa conceda al ejército acceso irrestricto a su modelo de IA Claude. El ultimátum llegó durante una reunión con el CEO Dario Amodei en Washington el martes, coincidiendo con el anuncio de Anthropic de relajar su Política de Escalado Responsable. Los cambios pasan de disparadores de seguridad estrictos a evaluaciones de riesgo más flexibles en medio de presiones competitivas.

Anthropic ha lanzado un plugin legal para su herramienta Claude Cowork, generando preocupaciones entre proveedores dedicados de IA legal. El plugin ofrece funciones útiles para la revisión de contratos y el cumplimiento normativo, pero no alcanza para reemplazar plataformas especializadas. Las empresas sudafricanas enfrentan obstáculos adicionales debido a las regulaciones de protección de datos.

Reportado por IA

El 5 de febrero de 2026, Anthropic y OpenAI lanzaron simultáneamente productos que trasladan a los usuarios de chatear con IA a gestionar equipos de agentes de IA. Anthropic presentó Claude Opus 4.6 con equipos de agentes para desarrolladores, mientras que OpenAI reveló Frontier y GPT-5.3-Codex para flujos de trabajo empresariales. Estos lanzamientos coinciden con una caída de 285.000 millones de dólares en acciones de software en medio de temores por la disrupción de la IA en los proveedores tradicionales de SaaS.

OpenAI está reorientando recursos hacia la mejora de su chatbot insignia ChatGPT, lo que ha provocado la salida de varios investigadores senior. La empresa de San Francisco se enfrenta a una intensa competencia de Google y Anthropic, lo que impulsa un cambio estratégico alejándose de la investigación a largo plazo. Este cambio ha generado preocupaciones sobre el futuro de la exploración innovadora de IA en la compañía.

Reportado por IA

Un comentario de CNET argumenta que describir la IA como poseedora de cualidades humanas como almas o confesiones despista al público y erosiona la confianza en la tecnología. Destaca cómo empresas como OpenAI y Anthropic usan dicho lenguaje, que oculta problemas reales como sesgos y seguridad. El texto llama a una terminología más precisa para fomentar una comprensión acertada.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar