Trump ordena a las agencias federales que dejen de usar la IA de Anthropic

El presidente de EE.UU., Donald Trump, ha dirigido a las agencias federales a cesar inmediatamente el uso de la IA Claude de Anthropic, tras la negativa de la compañía a permitir su empleo para vigilancia masiva o armas autónomas. La orden incluye un período de transición de seis meses. Esta decisión surge de los enfrentamientos continuos entre Anthropic y el Departamento de Defensa sobre restricciones a la IA.

El viernes 27 de febrero de 2026, el presidente Donald Trump anunció a través de su plataforma Truth Social que está instruyendo a todas las agencias federales a «CESAR INMEDIATAMENTE» el uso de las herramientas de IA de Anthropic. Describió a la compañía como una «COMPAÑÍA RADICAL DE IZQUIERDA, WOKE» y especificó una fase de salida de seis meses para agencias como el Departamento de Defensa. nnLa orden sigue semanas de tensión entre Anthropic y funcionarios gubernamentales en cuanto a las aplicaciones militares de la inteligencia artificial. La IA Claude de Anthropic se utiliza ampliamente en el Pentágono, incluidos sistemas clasificados. La administración Trump ha presionado por su uso en «cualquier propósito legal», pero el contrato de Anthropic prohíbe su despliegue para vigilancia doméstica masiva de estadounidenses o sistemas de armas ofensivas totalmente autónomas sin intervención humana. nnA principios de esta semana, el secretario de Defensa Pete Hegseth informó al director ejecutivo de Anthropic, Dario Amodei, de que invocaría poderes poco utilizados para obligar a eliminar estas restricciones o designar a la compañía como un riesgo en la cadena de suministro, lo que podría prohibir su uso por parte del Gobierno y contratistas de defensa. Hegseth estableció un plazo de cumplimiento para el viernes. nnEn respuesta, Amodei declaró que la compañía, fundada con un enfoque en la seguridad de la IA, «no puede en buena conciencia acceder a [la solicitud del Pentágono]». Expresó preocupaciones de que una IA potente podría permitir la vigilancia masiva al ensamblar datos dispersos en perfiles completos de la vida de las personas a gran escala. nnMichael Pastor, decano de los programas de derecho tecnológico en la New York Law School, señaló que Anthropic está justificado al buscar claridad sobre «propósitos legales», y añadió que la renuencia a especificar en materia de vigilancia genera preocupaciones válidas. nnLa postura de Anthropic se alinea con políticas similares en otras empresas; el director ejecutivo de OpenAI, Sam Altman, afirmó supuestamente en un memorando interno que su compañía mantiene las mismas líneas rojas contra la vigilancia masiva y las armas autónomas. Empleados de Google y OpenAI han circulado una petición instando a sus compañías a apoyar la posición de Anthropic, advirtiendo contra la estrategia del Pentágono de dividir mediante el miedo. nnClaude sigue siendo el sistema de IA más utilizado por el ejército de EE.UU., con alternativas potenciales que incluyen herramientas de OpenAI, Google o xAI.

Artículos relacionados

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Imagen generada por IA

Trump ordena prohibición federal de la IA de Anthropic para uso gubernamental

Reportado por IA Imagen generada por IA

El presidente de EE.UU. Donald Trump ha dirigido a todas las agencias federales a cesar inmediatamente el uso de las herramientas de IA de Anthropic en medio de una disputa sobre aplicaciones militares. La medida sigue semanas de enfrentamientos entre Anthropic y funcionarios del Pentágono respecto a restricciones en la IA para vigilancia masiva y armas autónomas. Se ha anunciado un período de eliminación gradual de seis meses.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Reportado por IA

Anthropic ha presentado una demanda federal contra el Departamento de Defensa de EE.UU., cuestionando su reciente etiqueta de la empresa de IA como un riesgo en la cadena de suministro. La disputa surge de un desacuerdo contractual sobre el uso del Claude AI de Anthropic para fines militares, incluyendo restricciones en la vigilancia masiva y armas autónomas. La empresa argumenta que la designación viola los derechos de libertad de expresión y debido proceso.

La app de Claude AI de Anthropic ha alcanzado el primer puesto en el ranking de apps gratuitas de la App Store de Apple, superando a ChatGPT y Gemini, impulsada por el apoyo público tras la prohibición federal del presidente Trump a la herramienta por los rechazos de Anthropic en materia de seguridad de la IA.

Reportado por IA

Una jueza federal de San Francisco emitió una medida cautelar el 27 de marzo de 2026, bloqueando la designación de la administración Trump que calificaba a la empresa de IA Anthropic como un riesgo para la cadena de suministro militar; una etiqueta aplicada tres semanas antes en medio de disputas sobre las restricciones de la firma en sus modelos de IA Claude para usos militares como armas autónomas.

Anthropic ha limitado el acceso a su modelo de IA Claude Mythos Preview debido a su capacidad superior para detectar y explotar vulnerabilidades de software, al tiempo que lanza el Project Glasswing—un consorcio con más de 45 empresas tecnológicas, incluidas Apple, Google y Microsoft—para parchear fallos y reforzar las defensas de forma colaborativa. El anuncio se produce tras las recientes filtraciones de datos en la firma.

Reportado por IA

La inteligencia artificial (IA) ha emergido en el centro de la guerra moderna, desempeñando un papel de apoyo operativo en el reciente ataque estadounidense-israelí contra Irán. Se utilizaron Claude de Anthropic y Gotham de Palantir para evaluaciones de inteligencia e identificación de objetivos. Los expertos predicen una mayor expansión de la IA en aplicaciones militares.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar