Anthropic lanza instituto de investigación y oficina de políticas en DC en medio de demanda gubernamental

Anthropic ha lanzado el Anthropic Institute, una nueva iniciativa de investigación, y ha abierto su primera oficina de Políticas Públicas en Washington, DC, esta primavera. Estos pasos siguen a la reciente demanda federal presentada por la empresa de IA contra el gobierno de EE.UU. por una designación de riesgo en la cadena de suministro del Departamento de Defensa vinculada a una disputa contractual.

Basándose en su demanda del 9 de marzo que cuestiona la etiqueta de riesgo en la cadena de suministro del Departamento de Defensa de EE.UU. —originada en la negativa de Anthropic a eliminar las salvaguardas en su IA Claude para uso militar—, la empresa ha anunciado expansiones en materia de políticas e investigación. Anthropic está triplicando el tamaño de su equipo de Políticas Públicas e inaugurando su primera oficina en DC esta primavera, según informó Axios. Sarah Heck, nueva jefa de Asuntos Externos, liderará los esfuerzos políticos, sucediendo al cofundador Jack Clark, quien asume el cargo de jefe de Beneficio Público supervisando el Anthropic Institute. El instituto consolidará y ampliará grupos existentes: el Frontier Red Team (pruebas de estrés de IA), el equipo de Impactos Sociales (aplicaciones en el mundo real) y el equipo de Investigación Económica (efectos en empleo y economía). Su objetivo es compartir perspectivas sobre los desafíos de la IA, incluidos la reestructuración económica y nuevos riesgos. Entre los miembros fundadores figuran Matt Botvinick (ex-Google DeepMind) y Zoë Hitzig (ex-OpenAI). En una audiencia judicial relacionada, Anthropic solicitó garantías contra sanciones adicionales por parte de la administración Trump, que las rechazó. Fuentes indican que podría haber una nueva orden ejecutiva de la Casa Blanca dirigida contra la empresa.

Artículos relacionados

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagen generada por IA

Anthropic sues US defense department over supply chain risk designation

Reportado por IA Imagen generada por IA

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

The UK Department for Science, Innovation and Technology has proposed that Anthropic expand its London office and pursue a potential dual stock listing, according to a Financial Times report. This effort follows a dispute between the San Francisco-based AI company and the US Department of Defense. Officials aim to attract Anthropic amid ongoing tensions.

Reportado por IA

Following last week's federal ban on its AI tools, Anthropic has resumed negotiations with the US Defense Department to avert a supply chain risk designation. Meanwhile, OpenAI's parallel military agreement is under fire from employees, rivals, and Anthropic CEO Dario Amodei, who accused it of misleading claims in a leaked memo.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Reportado por IA

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Following last week's unveiling that sparked global alarms, Anthropic has restricted its powerful Mythos AI—adept at finding cybersecurity vulnerabilities—to select firms under Project Glasswing, including Amazon Web Services, Apple, and Google, after an accidental leak raised national security concerns.

Reportado por IA

Anthropic announced on Wednesday the launch of Claude Managed Agents, a new product aimed at simplifying the creation and deployment of AI agents for businesses. The tool provides developers with ready-made infrastructure to build autonomous AI systems. It addresses a key barrier in automating work tasks amid the company's rapid enterprise growth.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar