Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Imagen generada por IA

El Pentágono cuestiona los límites antropogénicos del uso militar de Claude mientras se tensan las negociaciones del contrato

Imagen generada por IA
Verificado por hechos

Después de que el CEO de Anthropic, Dario Amodei, dijera a finales de febrero que la empresa no permitiría que su modelo Claude se utilizara para la vigilancia doméstica masiva ni para armas totalmente autónomas, altos cargos del Pentágono afirmaron que no tienen intención de utilizar la IA para la vigilancia doméstica e insisten en que las empresas privadas no pueden establecer límites vinculantes sobre la forma en que el ejército estadounidense emplea las herramientas de IA.

El pasado mes de julio, el jefe de inteligencia digital y artificial del Pentágono, Doug Matty, anunció la adjudicación de contratos de hasta 200 millones de dólares cada uno a cuatro empresas tecnológicas -Anthropic, Google, OpenAI y xAI- para proporcionar modelos avanzados de IA para misiones del Departamento de Defensa. Matty dijo que el departamento tenía la intención de acelerar la adopción de IA comercial para "tareas esenciales de misiones conjuntas" en el "dominio de combate", pero el Pentágono dio pocos detalles operativos, citando la seguridad nacional.

Las relativamente opacas adjudicaciones volvieron a llamar la atención a finales de febrero, cuando Anthropic dijo que insistía en los límites para Claude en un "conjunto reducido de casos". En una declaración del 26 de febrero, Amodei dijo que apoyaba firmemente el uso de la IA para ayudar a defender a Estados Unidos y otras democracias, pero argumentó que algunas aplicaciones podrían socavar los valores democráticos, incluida la "vigilancia doméstica masiva" y las "armas totalmente autónomas", que describió como drones de combate autoguiados.

Altos funcionarios del Departamento de Defensa respondieron rebatiendo tanto la premisa como la influencia de la empresa. Según la información citada por The Nation, los funcionarios del Pentágono dijeron que no tienen intención de utilizar la IA para la vigilancia nacional y que los sistemas de armas no tripuladas seguirán bajo supervisión humana. Pero también argumentaron que los contratistas no deberían poder imponer sus propias condiciones de libertades civiles en las operaciones del Pentágono. Emil Michael, Subsecretario de Defensa para Investigación e Ingeniería, fue citado diciendo: "No dejaremos que ninguna empresa BigTech decida sobre las libertades civiles de los estadounidenses".

The Nation informó de que, durante las negociaciones, Michael también planteó otra cuestión sobre si Anthropic se opondría al uso de Claude en misiones relacionadas con la energía nuclear, como la defensa antimisiles, y que Amodei no se opuso a ese uso.

La disputa ha puesto de relieve una tensión más amplia entre el impulso del Pentágono para integrar la IA generativa en la inteligencia, la selección de objetivos y el desarrollo de armas, y las barreras que las empresas de IA dicen que necesitan para evitar un uso indebido. The Nation se refirió a los esfuerzos del Departamento de Defensa desde hace tiempo, como el Proyecto Maven, que comenzó utilizando IA para ayudar a analizar vídeos de drones en busca de objetivos potenciales, y la iniciativa Collaborative Operations in Denied Environment (CODE) de DARPA, que ha trabajado en la autonomía de grupos de drones que operan bajo reglas preestablecidas.

La política oficial del Pentágono en materia de autonomía se describe en la Directiva 3000.09 del Departamento de Defensa, que establece que las armas autónomas y semiautónomas deben diseñarse de modo que los mandos y operadores puedan ejercer "niveles apropiados de juicio humano sobre el uso de la fuerza". Los críticos han argumentado que la flexibilidad de la política sigue dejando margen para una autonomía que podría reducir significativamente el control humano en tiempo real.

A medida que la IA se integra cada vez más en la planificación y las operaciones militares, el enfrentamiento entre el Pentágono y Anthropic pone de relieve una cuestión sin resolver en el centro de la expansión de la IA en el ejército estadounidense: cómo conciliar la rápida adopción de sistemas comerciales con la exigencia de límites aplicables a la vigilancia nacional y la delegación de fuerza letal a las máquinas.

Qué dice la gente

X debates revelan una división en la disputa Pentágono-Anthropic sobre los límites de Claude AI. Los partidarios de Anthropic elogian su postura ética contra la vigilancia masiva y las armas autónomas, y consideran que la lista negra del Pentágono es una extralimitación. Los críticos sostienen que las empresas privadas no pueden imponer restricciones al uso militar y que basta con unas simples condiciones contractuales. Mensajes neutrales detallan el enfrentamiento, los plazos y las escaladas legales, contrastando con el cumplimiento de OpenAI. Los relatos de periodistas y analistas destacan las tensiones entre la seguridad nacional y la seguridad de la IA.

Artículos relacionados

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Imagen generada por IA

El Pentágono designa a Anthropic como ‘riesgo en la cadena de suministro’ tras disputa por límites al uso militar de Claude AI

Reportado por IA Imagen generada por IA Verificado por hechos

El Pentágono ha notificado formalmente a la empresa de IA Anthropic que se le considera un «riesgo en la cadena de suministro», una designación rara que los críticos dicen que suele dirigirse a tecnologías vinculadas a adversarios. El movimiento sigue a una ruptura en las negociaciones sobre si el ejército de EE.UU. puede usar los modelos Claude de Anthropic para todos los fines legales, frente a límites contractuales que la empresa dice que son necesarios para prevenir armas completamente autónomas y vigilancia masiva doméstica.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Reportado por IA

El CEO de Anthropic, Dario Amodei, afirmó que la empresa no cumplirá con la solicitud del Pentágono de eliminar salvaguardas de sus modelos de IA, a pesar de las amenazas de exclusión de sistemas de defensa. La disputa se centra en prevenir el uso de la IA en armas autónomas y vigilancia doméstica. La firma, que tiene un contrato de 200 millones de dólares con el Departamento de Defensa, enfatiza su compromiso con el uso ético de la IA.

La inteligencia artificial (IA) ha emergido en el centro de la guerra moderna, desempeñando un papel de apoyo operativo en el reciente ataque estadounidense-israelí contra Irán. Se utilizaron Claude de Anthropic y Gotham de Palantir para evaluaciones de inteligencia e identificación de objetivos. Los expertos predicen una mayor expansión de la IA en aplicaciones militares.

Reportado por IA

El presidente de EE.UU., Donald Trump, declaró el viernes que está ordenando a las agencias gubernamentales que dejen de trabajar con Anthropic. El Pentágono planea declarar a la startup como un riesgo en la cadena de suministro, lo que supone un golpe importante tras un enfrentamiento sobre protecciones tecnológicas. Las agencias que utilizan los productos de la compañía tendrán un período de fase de salida de seis meses.

Según un informe, la SpaceX y xAI de Elon Musk competirán en un concurso secreto del Pentágono para desarrollar tecnología de enjambres de drones autónomos controlados por voz. El desafío con premio de 100 millones de dólares, lanzado en enero, durará seis meses. Las empresas y la unidad de innovación de defensa del Pentágono no respondieron a solicitudes de comentarios.

Reportado por IA

Anthropic ha lanzado un plugin legal para su herramienta Claude Cowork, generando preocupaciones entre proveedores dedicados de IA legal. El plugin ofrece funciones útiles para la revisión de contratos y el cumplimiento normativo, pero no alcanza para reemplazar plataformas especializadas. Las empresas sudafricanas enfrentan obstáculos adicionales debido a las regulaciones de protección de datos.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar