Empleados de Google y OpenAI firman carta en apoyo a Anthropic contra el Pentágono

Cientos de empleados de Google y OpenAI han firmado una carta abierta en solidaridad con Anthropic, instando a sus empresas a resistir las demandas del Pentágono para el uso militar sin restricciones de modelos de IA. La carta se opone a usos que involucren vigilancia masiva doméstica y asesinatos autónomos sin supervisión humana. Esto llega en medio de amenazas del secretario de Defensa de EE.UU., Pete Hegseth, de etiquetar a Anthropic como un riesgo en la cadena de suministro.

La carta abierta, titulada «No seremos divididos», llama a los líderes de Google y OpenAI a unirse contra las peticiones del Pentágono. Se niega específicamente a las demandas de utilizar modelos de IA como Claude de Anthropic para vigilancia masiva doméstica y para matar personas de forma autónoma sin supervisión humana. El director ejecutivo de Anthropic, Dario Amodei, ha declarado que estas son líneas que ninguna empresa de IA debería cruzar.  El 27 de febrero de 2026, la carta ha recopilado más de 450 firmas, con casi 400 de empleados de Google y el resto de OpenAI. Alrededor del 50 por ciento de los firmantes optó por adjuntar sus nombres públicamente, mientras que los demás permanecieron anónimos. Todas las firmas están verificadas como procedentes de empleados actuales de las dos empresas. Los organizadores, que no están afiliados a ninguna empresa de IA, partido político o grupo de advocacy, iniciaron la iniciativa de forma independiente.  Este desarrollo forma parte de un enfrentamiento continuo entre Anthropic y el secretario de Defensa de EE.UU., Pete Hegseth. Hegseth ha amenazado con designar a Anthropic como un «riesgo en la cadena de suministro» a menos que retire ciertas protecciones para trabajos clasificados. El Pentágono ha estado negociando con Google y OpenAI sobre usos similares de sus modelos para fines clasificados, y xAI se unió a esas conversaciones a principios de semana. La carta sostiene que el gobierno está intentando dividir a las empresas sembrando el temor de que otras podrían cumplir.  El director ejecutivo de OpenAI, Sam Altman, abordó el tema en un memorando interno, afirmando que su empresa mantendrá las mismas líneas rojas que Anthropic. En una entrevista con CNBC el mismo día, Altman expresó que no cree que el Pentágono deba amenazar con medidas de la Ley de Producción para la Defensa contra estas empresas. Por separado, Amodei ha confirmado la posición de Anthropic, diciendo: «No podemos en buena conciencia acceder a su solicitud».

Artículos relacionados

Split-scene illustration of Anthropic's renewed Pentagon talks contrasting with backlash against OpenAI's military AI deal.
Imagen generada por IA

Anthropic reanuda conversaciones con el Pentágono mientras el acuerdo militar de OpenAI enfrenta rechazo

Reportado por IA Imagen generada por IA

Tras la prohibición federal de la semana pasada sobre sus herramientas de IA, Anthropic ha reanudado las negociaciones con el Departamento de Defensa de EE.UU. para evitar una designación como riesgo en la cadena de suministro. Mientras tanto, el acuerdo militar paralelo de OpenAI está recibiendo críticas de empleados, rivales y el CEO de Anthropic, Dario Amodei, quien lo acusó de afirmaciones engañosas en un memo filtrado.

El CEO de Anthropic, Dario Amodei, afirmó que la empresa no cumplirá con la solicitud del Pentágono de eliminar salvaguardas de sus modelos de IA, a pesar de las amenazas de exclusión de sistemas de defensa. La disputa se centra en prevenir el uso de la IA en armas autónomas y vigilancia doméstica. La firma, que tiene un contrato de 200 millones de dólares con el Departamento de Defensa, enfatiza su compromiso con el uso ético de la IA.

Reportado por IA

Anthropic ha presentado una demanda federal contra el Departamento de Defensa de EE.UU., cuestionando su reciente etiqueta de la empresa de IA como un riesgo en la cadena de suministro. La disputa surge de un desacuerdo contractual sobre el uso del Claude AI de Anthropic para fines militares, incluyendo restricciones en la vigilancia masiva y armas autónomas. La empresa argumenta que la designación viola los derechos de libertad de expresión y debido proceso.

El presidente de EE.UU., Donald Trump, declaró el viernes que está ordenando a las agencias gubernamentales que dejen de trabajar con Anthropic. El Pentágono planea declarar a la startup como un riesgo en la cadena de suministro, lo que supone un golpe importante tras un enfrentamiento sobre protecciones tecnológicas. Las agencias que utilizan los productos de la compañía tendrán un período de fase de salida de seis meses.

Reportado por IA

Anthropic ha lanzado el Anthropic Institute, una nueva iniciativa de investigación, y ha abierto su primera oficina de Políticas Públicas en Washington, DC, esta primavera. Estos pasos siguen a la reciente demanda federal presentada por la empresa de IA contra el gobierno de EE.UU. por una designación de riesgo en la cadena de suministro del Departamento de Defensa vinculada a una disputa contractual.

La inteligencia artificial (IA) ha emergido en el centro de la guerra moderna, desempeñando un papel de apoyo operativo en el reciente ataque estadounidense-israelí contra Irán. Se utilizaron Claude de Anthropic y Gotham de Palantir para evaluaciones de inteligencia e identificación de objetivos. Los expertos predicen una mayor expansión de la IA en aplicaciones militares.

Reportado por IA

OpenAI está reorientando recursos hacia la mejora de su chatbot insignia ChatGPT, lo que ha provocado la salida de varios investigadores senior. La empresa de San Francisco se enfrenta a una intensa competencia de Google y Anthropic, lo que impulsa un cambio estratégico alejándose de la investigación a largo plazo. Este cambio ha generado preocupaciones sobre el futuro de la exploración innovadora de IA en la compañía.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar