Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Imagen generada por IA

Pentágono presiona a Anthropic para debilitar compromisos de seguridad de IA

Imagen generada por IA

El secretario de Defensa de EE.UU., Pete Hegseth, ha amenazado a Anthropic con severas sanciones a menos que la empresa conceda al ejército acceso irrestricto a su modelo de IA Claude. El ultimátum llegó durante una reunión con el CEO Dario Amodei en Washington el martes, coincidiendo con el anuncio de Anthropic de relajar su Política de Escalado Responsable. Los cambios pasan de disparadores de seguridad estrictos a evaluaciones de riesgo más flexibles en medio de presiones competitivas.

El 25 de febrero de 2026, el secretario de Defensa de EE.UU., Pete Hegseth, convocó al CEO de Anthropic, Dario Amodei, a Washington para discutir las políticas de uso de IA de la empresa. Hegseth exigió que Anthropic permitiera que su modelo Claude se utilizara en todas las aplicaciones militares legales, incluidas áreas potencialmente sensibles como la vigilancia masiva y misiones letales sin supervisión humana directa. Anthropic ha expresado preocupaciones sobre la fiabilidad de los modelos actuales de IA para tales usos, ofreciendo en su lugar aplicar sus políticas de uso estándar a contratos gubernamentales mientras prohíbe aplicaciones como armas autónomas o vigilancia doméstica sin intervención humana. Hegseth estableció un plazo límite el viernes 27 de febrero, advirtiendo de que el incumplimiento podría llevar a la invocación de la Ley de Producción para la Defensa, la designación de Anthropic como riesgo en la cadena de suministro y la exclusión de contratos del Departamento de Defensa. La empresa tiene un contrato de 200 millones de dólares con el Pentágono, y Claude ha sido utilizado en operaciones clasificadas, como la captura del líder venezolano Nicolás Maduro en enero de 2026 en colaboración con Palantir. El mismo día, Anthropic anunció modificaciones a su Política de Escalado Responsable, alejándose de compromisos estrictos para detener el entrenamiento de modelos a menos que la seguridad pudiera garantizarse de antemano. La política actualizada adopta un enfoque relativo, enfatizando informes de riesgo y hojas de ruta de seguridad fronteriza para proporcionar transparencia. Anthropic citó un 'problema de acción colectiva' en el panorama competitivo de la IA, señalando que pausas unilaterales desventajarían a los desarrolladores responsables mientras otros avanzan sin mitigaciones. El director científico Jared Kaplan declaró: 'Sentimos que no ayudaría realmente a nadie si dejáramos de entrenar modelos de IA', destacando el rápido ritmo del progreso de la industria. Chris Painter de METR describió el cambio como comprensible pero advirtió sobre un posible efecto de 'hervir la rana', donde las medidas de seguridad flexibles podrían erosionarse con el tiempo. Anthropic mantiene que está participando en conversaciones de buena fe para apoyar la seguridad nacional de manera responsable. El Pentágono también está negociando con rivales como OpenAI, Google y xAI para integrar sus tecnologías en sistemas militares.

Qué dice la gente

Los usuarios de X expresan predominantemente alarma y críticas hacia el ultimátum del secretario de Defensa Pete Hegseth a Anthropic, apoyando las salvaguardas de la empresa contra el uso de IA en armas autónomas y vigilancia masiva. Publicaciones de alto engagement detallan las amenazas de invocación de la Ley de Producción para la Defensa y señalan la coincidencia temporal con la relajación de la Política de Escalado Responsable de Anthropic. Los sentimientos incluyen indignación por la presión gubernamental, escepticismo sobre los compromisos de seguridad y reportajes neutrales de periodistas.

Artículos relacionados

President Trump signs executive order banning Anthropic AI from federal agencies amid Pentagon dispute, illustrated with banned AI screens, Pentagon, and courthouse symbols.
Imagen generada por IA

Trump orders US agencies to halt use of Anthropic AI technology

Reportado por IA Imagen generada por IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

El CEO de Anthropic, Dario Amodei, afirmó que la empresa no cumplirá con la solicitud del Pentágono de eliminar salvaguardas de sus modelos de IA, a pesar de las amenazas de exclusión de sistemas de defensa. La disputa se centra en prevenir el uso de la IA en armas autónomas y vigilancia doméstica. La firma, que tiene un contrato de 200 millones de dólares con el Departamento de Defensa, enfatiza su compromiso con el uso ético de la IA.

Reportado por IA

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Anthropic ha extendido su capacidad de memoria al nivel gratuito de su chatbot de IA Claude, permitiendo a los usuarios hacer referencia a conversaciones pasadas. La compañía también lanzó una herramienta para importar memorias de chatbots competidores como ChatGPT y Gemini. Esta actualización coincide con el aumento de popularidad de Claude en medio de una disputa con el Departamento de Defensa de EE.UU.

Reportado por IA

Anthropic ha lanzado un plugin legal para su herramienta Claude Cowork, generando preocupaciones entre proveedores dedicados de IA legal. El plugin ofrece funciones útiles para la revisión de contratos y el cumplimiento normativo, pero no alcanza para reemplazar plataformas especializadas. Las empresas sudafricanas enfrentan obstáculos adicionales debido a las regulaciones de protección de datos.

El servidor Git MCP oficial de Anthropic contenía vulnerabilidades de seguridad preocupantes que podían encadenarse para impactos graves. Los problemas fueron destacados en un informe reciente de TechRadar. Surgieron detalles sobre riesgos potenciales para la infraestructura de la compañía de IA.

Reportado por IA

La reciente actualización de Anthropic a su plataforma CoWork ha provocado reacciones significativas en el mercado en la industria del software. El sector del software de EE. UU. experimentó una venta masiva generalizada, perdiendo más de 1 billón de dólares en valor, según Fortune. Este desarrollo pone de manifiesto la incertidumbre de los inversores en torno a los flujos de trabajo nativos de IA y su impacto en las acciones de SaaS.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar