Anthropic no puede cumplir la demanda del Pentágono sobre salvaguardas de IA, dice el CEO

El CEO de Anthropic, Dario Amodei, afirmó que la empresa no cumplirá con la solicitud del Pentágono de eliminar salvaguardas de sus modelos de IA, a pesar de las amenazas de exclusión de sistemas de defensa. La disputa se centra en prevenir el uso de la IA en armas autónomas y vigilancia doméstica. La firma, que tiene un contrato de 200 millones de dólares con el Departamento de Defensa, enfatiza su compromiso con el uso ético de la IA.

Anthropic, una startup de IA respaldada por Google y Amazon, está enzarzada en una disputa con el Departamento de Defensa de EE.UU. sobre salvaguardas en su tecnología de IA, particularmente su modelo Claude. El jueves, el CEO Dario Amodei anunció que la empresa no puede acceder a las demandas del Pentágono, que incluyen eliminar restricciones que impiden el uso de la IA para dirigir armas de forma autónoma o para vigilancia doméstica masiva en Estados Unidos. El Pentágono tiene un contrato con Anthropic por hasta 200 millones de dólares. Sin embargo, el departamento insiste en contratar solo con firmas de IA que permitan “cualquier uso legal” de su tecnología, lo que requiere la eliminación de dichas salvaguardas. Amodei señaló que usos como la vigilancia masiva y las armas totalmente autónomas nunca han formado parte de sus contratos y no deberían incluirse ahora. Reveló amenazas del departamento de eliminar a Anthropic de sus sistemas, designarla como riesgo en la cadena de suministro e invocar la Ley de Producción de Defensa para forzar los cambios. “Independientemente de ello, estas amenazas no cambian nuestra posición: no podemos en buena conciencia acceder a su solicitud”, dijo Amodei. En respuesta, el portavoz del Pentágono Sean Parnell publicó en X que el departamento no tiene interés en usar IA para la vigilancia masiva de estadounidenses o desarrollar armas autónomas sin intervención humana. “Esto es lo que pedimos: Permitir al Pentágono usar el modelo de Anthropic para todos los fines legales”, dijo Parnell. El Pentágono no respondió de inmediato a solicitudes de comentarios sobre la declaración de Anthropic. Amodei expresó su esperanza de que el departamento reconsidere, dado el valor de la tecnología de Anthropic para las fuerzas armadas, y ofreció facilitar una transición fluida si es necesario. Un portavoz de Anthropic añadió que la empresa está lista para continuar las discusiones y se compromete con la continuidad operativa para el Departamento y los combatientes de América.

Artículos relacionados

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Imagen generada por IA

Pentágono presiona a Anthropic para debilitar compromisos de seguridad de IA

Reportado por IA Imagen generada por IA

El secretario de Defensa de EE.UU., Pete Hegseth, ha amenazado a Anthropic con severas sanciones a menos que la empresa conceda al ejército acceso irrestricto a su modelo de IA Claude. El ultimátum llegó durante una reunión con el CEO Dario Amodei en Washington el martes, coincidiendo con el anuncio de Anthropic de relajar su Política de Escalado Responsable. Los cambios pasan de disparadores de seguridad estrictos a evaluaciones de riesgo más flexibles en medio de presiones competitivas.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Reportado por IA

Cientos de empleados de Google y OpenAI han firmado una carta abierta en solidaridad con Anthropic, instando a sus empresas a resistir las demandas del Pentágono para el uso militar sin restricciones de modelos de IA. La carta se opone a usos que involucren vigilancia masiva doméstica y asesinatos autónomos sin supervisión humana. Esto llega en medio de amenazas del secretario de Defensa de EE.UU., Pete Hegseth, de etiquetar a Anthropic como un riesgo en la cadena de suministro.

La reciente actualización de Anthropic a su plataforma CoWork ha provocado reacciones significativas en el mercado en la industria del software. El sector del software de EE. UU. experimentó una venta masiva generalizada, perdiendo más de 1 billón de dólares en valor, según Fortune. Este desarrollo pone de manifiesto la incertidumbre de los inversores en torno a los flujos de trabajo nativos de IA y su impacto en las acciones de SaaS.

Reportado por IA

Un comentario de CNET argumenta que describir la IA como poseedora de cualidades humanas como almas o confesiones despista al público y erosiona la confianza en la tecnología. Destaca cómo empresas como OpenAI y Anthropic usan dicho lenguaje, que oculta problemas reales como sesgos y seguridad. El texto llama a una terminología más precisa para fomentar una comprensión acertada.

En 2025, los agentes de IA se convirtieron en el centro del progreso de la inteligencia artificial, permitiendo que los sistemas usen herramientas y actúen de manera autónoma. Desde la teoría hasta las aplicaciones cotidianas, transformaron las interacciones humanas con los grandes modelos de lenguaje. Sin embargo, también trajeron desafíos como riesgos de seguridad y lagunas regulatorias.

Reportado por IA

Anthropic ha lanzado un plugin legal para su herramienta Claude Cowork, generando preocupaciones entre proveedores dedicados de IA legal. El plugin ofrece funciones útiles para la revisión de contratos y el cumplimiento normativo, pero no alcanza para reemplazar plataformas especializadas. Las empresas sudafricanas enfrentan obstáculos adicionales debido a las regulaciones de protección de datos.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar