Anthropic no puede cumplir la demanda del Pentágono sobre salvaguardas de IA, dice el CEO

El CEO de Anthropic, Dario Amodei, afirmó que la empresa no cumplirá con la solicitud del Pentágono de eliminar salvaguardas de sus modelos de IA, a pesar de las amenazas de exclusión de sistemas de defensa. La disputa se centra en prevenir el uso de la IA en armas autónomas y vigilancia doméstica. La firma, que tiene un contrato de 200 millones de dólares con el Departamento de Defensa, enfatiza su compromiso con el uso ético de la IA.

Anthropic, una startup de IA respaldada por Google y Amazon, está enzarzada en una disputa con el Departamento de Defensa de EE.UU. sobre salvaguardas en su tecnología de IA, particularmente su modelo Claude. El jueves, el CEO Dario Amodei anunció que la empresa no puede acceder a las demandas del Pentágono, que incluyen eliminar restricciones que impiden el uso de la IA para dirigir armas de forma autónoma o para vigilancia doméstica masiva en Estados Unidos. El Pentágono tiene un contrato con Anthropic por hasta 200 millones de dólares. Sin embargo, el departamento insiste en contratar solo con firmas de IA que permitan “cualquier uso legal” de su tecnología, lo que requiere la eliminación de dichas salvaguardas. Amodei señaló que usos como la vigilancia masiva y las armas totalmente autónomas nunca han formado parte de sus contratos y no deberían incluirse ahora. Reveló amenazas del departamento de eliminar a Anthropic de sus sistemas, designarla como riesgo en la cadena de suministro e invocar la Ley de Producción de Defensa para forzar los cambios. “Independientemente de ello, estas amenazas no cambian nuestra posición: no podemos en buena conciencia acceder a su solicitud”, dijo Amodei. En respuesta, el portavoz del Pentágono Sean Parnell publicó en X que el departamento no tiene interés en usar IA para la vigilancia masiva de estadounidenses o desarrollar armas autónomas sin intervención humana. “Esto es lo que pedimos: Permitir al Pentágono usar el modelo de Anthropic para todos los fines legales”, dijo Parnell. El Pentágono no respondió de inmediato a solicitudes de comentarios sobre la declaración de Anthropic. Amodei expresó su esperanza de que el departamento reconsidere, dado el valor de la tecnología de Anthropic para las fuerzas armadas, y ofreció facilitar una transición fluida si es necesario. Un portavoz de Anthropic añadió que la empresa está lista para continuar las discusiones y se compromete con la continuidad operativa para el Departamento y los combatientes de América.

Artículos relacionados

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Imagen generada por IA

Pentágono presiona a Anthropic para debilitar compromisos de seguridad de IA

Reportado por IA Imagen generada por IA

El secretario de Defensa de EE.UU., Pete Hegseth, ha amenazado a Anthropic con severas sanciones a menos que la empresa conceda al ejército acceso irrestricto a su modelo de IA Claude. El ultimátum llegó durante una reunión con el CEO Dario Amodei en Washington el martes, coincidiendo con el anuncio de Anthropic de relajar su Política de Escalado Responsable. Los cambios pasan de disparadores de seguridad estrictos a evaluaciones de riesgo más flexibles en medio de presiones competitivas.

Anthropic ha presentado una demanda federal contra el Departamento de Defensa de EE.UU., cuestionando su reciente etiqueta de la empresa de IA como un riesgo en la cadena de suministro. La disputa surge de un desacuerdo contractual sobre el uso del Claude AI de Anthropic para fines militares, incluyendo restricciones en la vigilancia masiva y armas autónomas. La empresa argumenta que la designación viola los derechos de libertad de expresión y debido proceso.

Reportado por IA Verificado por hechos

Después de que el CEO de Anthropic, Dario Amodei, dijera a finales de febrero que la empresa no permitiría que su modelo Claude se utilizara para la vigilancia doméstica masiva ni para armas totalmente autónomas, altos cargos del Pentágono afirmaron que no tienen intención de utilizar la IA para la vigilancia doméstica e insisten en que las empresas privadas no pueden establecer límites vinculantes sobre la forma en que el ejército estadounidense emplea las herramientas de IA.

El presidente de EE.UU., Donald Trump, declaró el viernes que está ordenando a las agencias gubernamentales que dejen de trabajar con Anthropic. El Pentágono planea declarar a la startup como un riesgo en la cadena de suministro, lo que supone un golpe importante tras un enfrentamiento sobre protecciones tecnológicas. Las agencias que utilizan los productos de la compañía tendrán un período de fase de salida de seis meses.

Reportado por IA

Anthropic ha lanzado el Anthropic Institute, una nueva iniciativa de investigación, y ha abierto su primera oficina de Políticas Públicas en Washington, DC, esta primavera. Estos pasos siguen a la reciente demanda federal presentada por la empresa de IA contra el gobierno de EE.UU. por una designación de riesgo en la cadena de suministro del Departamento de Defensa vinculada a una disputa contractual.

La inteligencia artificial (IA) ha emergido en el centro de la guerra moderna, desempeñando un papel de apoyo operativo en el reciente ataque estadounidense-israelí contra Irán. Se utilizaron Claude de Anthropic y Gotham de Palantir para evaluaciones de inteligencia e identificación de objetivos. Los expertos predicen una mayor expansión de la IA en aplicaciones militares.

Reportado por IA

Anthropic ha anunciado que su chatbot de IA Claude permanecerá libre de anuncios, en fuerte contraste con la reciente decisión de su rival OpenAI de probar anuncios en ChatGPT. La compañía lanzó una campaña publicitaria en el Super Bowl que se burla de los asistentes de IA que interrumpen las conversaciones con promociones de productos. Esta jugada resalta las crecientes tensiones en el competitivo panorama de la IA.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar