Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Imagen generada por IA

Pentágono presiona a Anthropic para debilitar compromisos de seguridad de IA

Imagen generada por IA

El secretario de Defensa de EE.UU., Pete Hegseth, ha amenazado a Anthropic con severas sanciones a menos que la empresa conceda al ejército acceso irrestricto a su modelo de IA Claude. El ultimátum llegó durante una reunión con el CEO Dario Amodei en Washington el martes, coincidiendo con el anuncio de Anthropic de relajar su Política de Escalado Responsable. Los cambios pasan de disparadores de seguridad estrictos a evaluaciones de riesgo más flexibles en medio de presiones competitivas.

El 25 de febrero de 2026, el secretario de Defensa de EE.UU., Pete Hegseth, convocó al CEO de Anthropic, Dario Amodei, a Washington para discutir las políticas de uso de IA de la empresa. Hegseth exigió que Anthropic permitiera que su modelo Claude se utilizara en todas las aplicaciones militares legales, incluidas áreas potencialmente sensibles como la vigilancia masiva y misiones letales sin supervisión humana directa. Anthropic ha expresado preocupaciones sobre la fiabilidad de los modelos actuales de IA para tales usos, ofreciendo en su lugar aplicar sus políticas de uso estándar a contratos gubernamentales mientras prohíbe aplicaciones como armas autónomas o vigilancia doméstica sin intervención humana. Hegseth estableció un plazo límite el viernes 27 de febrero, advirtiendo de que el incumplimiento podría llevar a la invocación de la Ley de Producción para la Defensa, la designación de Anthropic como riesgo en la cadena de suministro y la exclusión de contratos del Departamento de Defensa. La empresa tiene un contrato de 200 millones de dólares con el Pentágono, y Claude ha sido utilizado en operaciones clasificadas, como la captura del líder venezolano Nicolás Maduro en enero de 2026 en colaboración con Palantir. El mismo día, Anthropic anunció modificaciones a su Política de Escalado Responsable, alejándose de compromisos estrictos para detener el entrenamiento de modelos a menos que la seguridad pudiera garantizarse de antemano. La política actualizada adopta un enfoque relativo, enfatizando informes de riesgo y hojas de ruta de seguridad fronteriza para proporcionar transparencia. Anthropic citó un 'problema de acción colectiva' en el panorama competitivo de la IA, señalando que pausas unilaterales desventajarían a los desarrolladores responsables mientras otros avanzan sin mitigaciones. El director científico Jared Kaplan declaró: 'Sentimos que no ayudaría realmente a nadie si dejáramos de entrenar modelos de IA', destacando el rápido ritmo del progreso de la industria. Chris Painter de METR describió el cambio como comprensible pero advirtió sobre un posible efecto de 'hervir la rana', donde las medidas de seguridad flexibles podrían erosionarse con el tiempo. Anthropic mantiene que está participando en conversaciones de buena fe para apoyar la seguridad nacional de manera responsable. El Pentágono también está negociando con rivales como OpenAI, Google y xAI para integrar sus tecnologías en sistemas militares.

Qué dice la gente

Los usuarios de X expresan predominantemente alarma y críticas hacia el ultimátum del secretario de Defensa Pete Hegseth a Anthropic, apoyando las salvaguardas de la empresa contra el uso de IA en armas autónomas y vigilancia masiva. Publicaciones de alto engagement detallan las amenazas de invocación de la Ley de Producción para la Defensa y señalan la coincidencia temporal con la relajación de la Política de Escalado Responsable de Anthropic. Los sentimientos incluyen indignación por la presión gubernamental, escepticismo sobre los compromisos de seguridad y reportajes neutrales de periodistas.

Artículos relacionados

Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Imagen generada por IA

Pentagon disputes Anthropic limits on Claude’s military use as contract talks strain

Reportado por IA Imagen generada por IA Verificado por hechos

After Anthropic CEO Dario Amodei said in late February that the company would not allow its Claude model to be used for mass domestic surveillance or fully autonomous weapons, senior Pentagon officials said they have no intention of using AI for domestic surveillance and insist that private firms cannot set binding limits on how the U.S. military employs AI tools.

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Reportado por IA

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Reportado por IA

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

Anthropic has announced that its AI chatbot Claude will remain free of advertisements, contrasting sharply with rival OpenAI's recent decision to test ads in ChatGPT. The company launched a Super Bowl ad campaign mocking AI assistants that interrupt conversations with product pitches. This move highlights growing tensions in the competitive AI landscape.

Reportado por IA

Anthropic announced on Wednesday the launch of Claude Managed Agents, a new product aimed at simplifying the creation and deployment of AI agents for businesses. The tool provides developers with ready-made infrastructure to build autonomous AI systems. It addresses a key barrier in automating work tasks amid the company's rapid enterprise growth.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar