Anthropic lanza instituto de investigación y oficina de políticas en DC en medio de demanda gubernamental

Anthropic ha lanzado el Anthropic Institute, una nueva iniciativa de investigación, y ha abierto su primera oficina de Políticas Públicas en Washington, DC, esta primavera. Estos pasos siguen a la reciente demanda federal presentada por la empresa de IA contra el gobierno de EE.UU. por una designación de riesgo en la cadena de suministro del Departamento de Defensa vinculada a una disputa contractual.

Basándose en su demanda del 9 de marzo que cuestiona la etiqueta de riesgo en la cadena de suministro del Departamento de Defensa de EE.UU. —originada en la negativa de Anthropic a eliminar las salvaguardas en su IA Claude para uso militar—, la empresa ha anunciado expansiones en materia de políticas e investigación. Anthropic está triplicando el tamaño de su equipo de Políticas Públicas e inaugurando su primera oficina en DC esta primavera, según informó Axios. Sarah Heck, nueva jefa de Asuntos Externos, liderará los esfuerzos políticos, sucediendo al cofundador Jack Clark, quien asume el cargo de jefe de Beneficio Público supervisando el Anthropic Institute. El instituto consolidará y ampliará grupos existentes: el Frontier Red Team (pruebas de estrés de IA), el equipo de Impactos Sociales (aplicaciones en el mundo real) y el equipo de Investigación Económica (efectos en empleo y economía). Su objetivo es compartir perspectivas sobre los desafíos de la IA, incluidos la reestructuración económica y nuevos riesgos. Entre los miembros fundadores figuran Matt Botvinick (ex-Google DeepMind) y Zoë Hitzig (ex-OpenAI). En una audiencia judicial relacionada, Anthropic solicitó garantías contra sanciones adicionales por parte de la administración Trump, que las rechazó. Fuentes indican que podría haber una nueva orden ejecutiva de la Casa Blanca dirigida contra la empresa.

Artículos relacionados

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagen generada por IA

Anthropic demanda al Departamento de Defensa de EE.UU. por designación de riesgo en la cadena de suministro

Reportado por IA Imagen generada por IA

Anthropic ha presentado una demanda federal contra el Departamento de Defensa de EE.UU., cuestionando su reciente etiqueta de la empresa de IA como un riesgo en la cadena de suministro. La disputa surge de un desacuerdo contractual sobre el uso del Claude AI de Anthropic para fines militares, incluyendo restricciones en la vigilancia masiva y armas autónomas. La empresa argumenta que la designación viola los derechos de libertad de expresión y debido proceso.

Tras la prohibición federal de la semana pasada sobre sus herramientas de IA, Anthropic ha reanudado las negociaciones con el Departamento de Defensa de EE.UU. para evitar una designación como riesgo en la cadena de suministro. Mientras tanto, el acuerdo militar paralelo de OpenAI está recibiendo críticas de empleados, rivales y el CEO de Anthropic, Dario Amodei, quien lo acusó de afirmaciones engañosas en un memo filtrado.

Reportado por IA Verificado por hechos

El Pentágono ha notificado formalmente a la empresa de IA Anthropic que se le considera un «riesgo en la cadena de suministro», una designación rara que los críticos dicen que suele dirigirse a tecnologías vinculadas a adversarios. El movimiento sigue a una ruptura en las negociaciones sobre si el ejército de EE.UU. puede usar los modelos Claude de Anthropic para todos los fines legales, frente a límites contractuales que la empresa dice que son necesarios para prevenir armas completamente autónomas y vigilancia masiva doméstica.

Los inversores globales están cuestionando los retornos de los enormes gastos tecnológicos en inteligencia artificial. Christopher Wood, de Jefferies, identifica a Anthropic como una destacada en el cambiante panorama de la IA. El auge de la IA ha impulsado las acciones estadounidenses, pero crecen las preocupaciones sobre su sostenibilidad.

Reportado por IA

La reciente actualización de Anthropic a su plataforma CoWork ha provocado reacciones significativas en el mercado en la industria del software. El sector del software de EE. UU. experimentó una venta masiva generalizada, perdiendo más de 1 billón de dólares en valor, según Fortune. Este desarrollo pone de manifiesto la incertidumbre de los inversores en torno a los flujos de trabajo nativos de IA y su impacto en las acciones de SaaS.

La app de Claude AI de Anthropic ha alcanzado el primer puesto en el ranking de apps gratuitas de la App Store de Apple, superando a ChatGPT y Gemini, impulsada por el apoyo público tras la prohibición federal del presidente Trump a la herramienta por los rechazos de Anthropic en materia de seguridad de la IA.

Reportado por IA

La herramienta de IA Claude Cowork de Anthropic ha provocado una fuerte caída en las acciones de Infosys, TCS y otras empresas SaaS. Estas compañías perdieron cientos de miles de millones de dólares en valor de mercado. El desencadenante es el auge de la IA.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar