Empleados de Google y OpenAI firman carta en apoyo a Anthropic contra el Pentágono

Cientos de empleados de Google y OpenAI han firmado una carta abierta en solidaridad con Anthropic, instando a sus empresas a resistir las demandas del Pentágono para el uso militar sin restricciones de modelos de IA. La carta se opone a usos que involucren vigilancia masiva doméstica y asesinatos autónomos sin supervisión humana. Esto llega en medio de amenazas del secretario de Defensa de EE.UU., Pete Hegseth, de etiquetar a Anthropic como un riesgo en la cadena de suministro.

La carta abierta, titulada «No seremos divididos», llama a los líderes de Google y OpenAI a unirse contra las peticiones del Pentágono. Se niega específicamente a las demandas de utilizar modelos de IA como Claude de Anthropic para vigilancia masiva doméstica y para matar personas de forma autónoma sin supervisión humana. El director ejecutivo de Anthropic, Dario Amodei, ha declarado que estas son líneas que ninguna empresa de IA debería cruzar.  El 27 de febrero de 2026, la carta ha recopilado más de 450 firmas, con casi 400 de empleados de Google y el resto de OpenAI. Alrededor del 50 por ciento de los firmantes optó por adjuntar sus nombres públicamente, mientras que los demás permanecieron anónimos. Todas las firmas están verificadas como procedentes de empleados actuales de las dos empresas. Los organizadores, que no están afiliados a ninguna empresa de IA, partido político o grupo de advocacy, iniciaron la iniciativa de forma independiente.  Este desarrollo forma parte de un enfrentamiento continuo entre Anthropic y el secretario de Defensa de EE.UU., Pete Hegseth. Hegseth ha amenazado con designar a Anthropic como un «riesgo en la cadena de suministro» a menos que retire ciertas protecciones para trabajos clasificados. El Pentágono ha estado negociando con Google y OpenAI sobre usos similares de sus modelos para fines clasificados, y xAI se unió a esas conversaciones a principios de semana. La carta sostiene que el gobierno está intentando dividir a las empresas sembrando el temor de que otras podrían cumplir.  El director ejecutivo de OpenAI, Sam Altman, abordó el tema en un memorando interno, afirmando que su empresa mantendrá las mismas líneas rojas que Anthropic. En una entrevista con CNBC el mismo día, Altman expresó que no cree que el Pentágono deba amenazar con medidas de la Ley de Producción para la Defensa contra estas empresas. Por separado, Amodei ha confirmado la posición de Anthropic, diciendo: «No podemos en buena conciencia acceder a su solicitud».

Artículos relacionados

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Imagen generada por IA

Pentágono presiona a Anthropic para debilitar compromisos de seguridad de IA

Reportado por IA Imagen generada por IA

El secretario de Defensa de EE.UU., Pete Hegseth, ha amenazado a Anthropic con severas sanciones a menos que la empresa conceda al ejército acceso irrestricto a su modelo de IA Claude. El ultimátum llegó durante una reunión con el CEO Dario Amodei en Washington el martes, coincidiendo con el anuncio de Anthropic de relajar su Política de Escalado Responsable. Los cambios pasan de disparadores de seguridad estrictos a evaluaciones de riesgo más flexibles en medio de presiones competitivas.

El CEO de Anthropic, Dario Amodei, afirmó que la empresa no cumplirá con la solicitud del Pentágono de eliminar salvaguardas de sus modelos de IA, a pesar de las amenazas de exclusión de sistemas de defensa. La disputa se centra en prevenir el uso de la IA en armas autónomas y vigilancia doméstica. La firma, que tiene un contrato de 200 millones de dólares con el Departamento de Defensa, enfatiza su compromiso con el uso ético de la IA.

Reportado por IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Un comentario de CNET argumenta que describir la IA como poseedora de cualidades humanas como almas o confesiones despista al público y erosiona la confianza en la tecnología. Destaca cómo empresas como OpenAI y Anthropic usan dicho lenguaje, que oculta problemas reales como sesgos y seguridad. El texto llama a una terminología más precisa para fomentar una comprensión acertada.

Reportado por IA

Según un informe, la SpaceX y xAI de Elon Musk competirán en un concurso secreto del Pentágono para desarrollar tecnología de enjambres de drones autónomos controlados por voz. El desafío con premio de 100 millones de dólares, lanzado en enero, durará seis meses. Las empresas y la unidad de innovación de defensa del Pentágono no respondieron a solicitudes de comentarios.

Anthropic ha actualizado el plan gratuito de su chatbot de IA Claude al añadir funciones que antes eran de pago, posicionándolo como una alternativa sin anuncios a ChatGPT de OpenAI. Las mejoras incluyen creación de archivos, conectores a servicios de terceros y habilidades personalizadas, en medio de los planes de OpenAI para introducir anuncios en su nivel gratuito. Este movimiento sigue a los anuncios de Anthropic en el Super Bowl que criticaban la estrategia de anuncios.

Reportado por IA

La reciente actualización de Anthropic a su plataforma CoWork ha provocado reacciones significativas en el mercado en la industria del software. El sector del software de EE. UU. experimentó una venta masiva generalizada, perdiendo más de 1 billón de dólares en valor, según Fortune. Este desarrollo pone de manifiesto la incertidumbre de los inversores en torno a los flujos de trabajo nativos de IA y su impacto en las acciones de SaaS.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar