El presidente de EE.UU., Donald Trump, ha dirigido a las agencias federales a cesar inmediatamente el uso de la IA Claude de Anthropic, tras la negativa de la compañía a permitir su empleo para vigilancia masiva o armas autónomas. La orden incluye un período de transición de seis meses. Esta decisión surge de los enfrentamientos continuos entre Anthropic y el Departamento de Defensa sobre restricciones a la IA.
El viernes 27 de febrero de 2026, el presidente Donald Trump anunció a través de su plataforma Truth Social que está instruyendo a todas las agencias federales a «CESAR INMEDIATAMENTE» el uso de las herramientas de IA de Anthropic. Describió a la compañía como una «COMPAÑÍA RADICAL DE IZQUIERDA, WOKE» y especificó una fase de salida de seis meses para agencias como el Departamento de Defensa. nnLa orden sigue semanas de tensión entre Anthropic y funcionarios gubernamentales en cuanto a las aplicaciones militares de la inteligencia artificial. La IA Claude de Anthropic se utiliza ampliamente en el Pentágono, incluidos sistemas clasificados. La administración Trump ha presionado por su uso en «cualquier propósito legal», pero el contrato de Anthropic prohíbe su despliegue para vigilancia doméstica masiva de estadounidenses o sistemas de armas ofensivas totalmente autónomas sin intervención humana. nnA principios de esta semana, el secretario de Defensa Pete Hegseth informó al director ejecutivo de Anthropic, Dario Amodei, de que invocaría poderes poco utilizados para obligar a eliminar estas restricciones o designar a la compañía como un riesgo en la cadena de suministro, lo que podría prohibir su uso por parte del Gobierno y contratistas de defensa. Hegseth estableció un plazo de cumplimiento para el viernes. nnEn respuesta, Amodei declaró que la compañía, fundada con un enfoque en la seguridad de la IA, «no puede en buena conciencia acceder a [la solicitud del Pentágono]». Expresó preocupaciones de que una IA potente podría permitir la vigilancia masiva al ensamblar datos dispersos en perfiles completos de la vida de las personas a gran escala. nnMichael Pastor, decano de los programas de derecho tecnológico en la New York Law School, señaló que Anthropic está justificado al buscar claridad sobre «propósitos legales», y añadió que la renuencia a especificar en materia de vigilancia genera preocupaciones válidas. nnLa postura de Anthropic se alinea con políticas similares en otras empresas; el director ejecutivo de OpenAI, Sam Altman, afirmó supuestamente en un memorando interno que su compañía mantiene las mismas líneas rojas contra la vigilancia masiva y las armas autónomas. Empleados de Google y OpenAI han circulado una petición instando a sus compañías a apoyar la posición de Anthropic, advirtiendo contra la estrategia del Pentágono de dividir mediante el miedo. nnClaude sigue siendo el sistema de IA más utilizado por el ejército de EE.UU., con alternativas potenciales que incluyen herramientas de OpenAI, Google o xAI.