Anthropic lance un institut de recherche et un bureau de politique à DC au milieu d’un litige gouvernemental

Anthropic a lancé l’Anthropic Institute, une nouvelle initiative de recherche, et ouvert son premier bureau de politique publique à Washington, DC, ce printemps. Ces mesures font suite au récent procès fédéral intenté par l’entreprise d’IA contre le gouvernement américain concernant une désignation de risque dans la chaîne d’approvisionnement du Département de la Défense liée à un différend contractuel.

S’appuyant sur son procès du 9 mars contestant l’étiquette de risque dans la chaîne d’approvisionnement du Département de la Défense des États-Unis — découlant du refus d’Anthropic de lever les salvaguardes sur son IA Claude pour un usage militaire —, l’entreprise a annoncé des expansions en matière de politique et de recherche.  Anthropic triple la taille de son équipe de politique publique et établit son premier bureau à DC ce printemps, selon Axios. Sarah Heck, nouvelle responsable des affaires extérieures, dirigera les efforts de politique, succédant au cofondateur Jack Clark, qui passe à responsable du bénéfice public supervisant l’Anthropic Institute.  L’institut consolidera et étendra des groupes existants : le Frontier Red Team (tests de stress de l’IA), l’équipe Societal Impacts (applications dans le monde réel), et l’équipe Economic Research (effets sur l’emploi/économie). Il vise à partager des analyses sur les défis de l’IA, y compris la restructuration économique et les nouveaux risques. Les membres fondateurs incluent Matt Botvinick (ex-Google DeepMind) et Zoë Hitzig (ex-OpenAI).  Lors d’une audience judiciaire connexe, Anthropic a demandé des garanties contre d’autres sanctions de l’administration Trump, qui a refusé. Des sources indiquent un possible nouveau décret exécutif de la Maison Blanche visant l’entreprise.

Articles connexes

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Image générée par IA

Anthropic poursuit le département de la Défense américain en justice pour sa désignation comme risque dans la chaîne d'approvisionnement

Rapporté par l'IA Image générée par IA

Anthropic a déposé une plainte fédérale contre le département de la Défense des États-Unis, contestant son étiquetage récent de l'entreprise d'IA comme un risque pour la chaîne d'approvisionnement. Le différend provient d'un désaccord contractuel sur l'utilisation de l'IA Claude d'Anthropic à des fins militaires, incluant des restrictions sur la surveillance de masse et les armes autonomes. L'entreprise affirme que cette désignation viole les droits à la liberté d'expression et aux garanties procédurales.

Après l’interdiction fédérale la semaine dernière de ses outils d’IA, Anthropic a repris les négociations avec le département de la Défense des États-Unis pour éviter une désignation de risque pour la chaîne d’approvisionnement. Parallèlement, l’accord militaire parallèle d’OpenAI fait l’objet de critiques de la part des employés, des rivaux et du PDG d’Anthropic, Dario Amodei, qui l’a accusé de déclarations trompeuses dans un mémo divulgué.

Rapporté par l'IA Vérifié par des faits

Le Pentagone a formellement notifié à la société d’IA Anthropic qu’elle est considérée comme un « risque pour la chaîne d’approvisionnement », une désignation rare que les critiques estiment généralement viser les technologies liées à des adversaires. Cette mesure fait suite à une rupture des négociations sur la question de savoir si l’armée américaine peut utiliser les modèles Claude d’Anthropic à toutes les fins légales, contre les limites contractuelles que l’entreprise juge nécessaires pour empêcher les armes pleinement autonomes et la surveillance domestique de masse.

Les investisseurs mondiaux remettent en question les rendements des dépenses massives des entreprises technologiques en intelligence artificielle. Christopher Wood, de Jefferies, identifie Anthropic comme un acteur remarquable dans le paysage en évolution de l'IA. Le boom de l'IA a dopé les actions américaines, mais les inquiétudes croissent quant à sa durabilité.

Rapporté par l'IA

La récente mise à jour de la plateforme CoWork d'Anthropic a entraîné des réactions marquées sur le marché dans l'industrie logicielle. Le secteur logiciel américain a connu une vente massive généralisée, perdant plus de 1 000 milliards de dollars de valeur, selon Fortune. Ce développement met en lumière l'incertitude des investisseurs quant aux workflows natifs IA et leur impact sur les actions SaaS.

L'application Claude AI d'Anthropic a atteint la première place du classement des applications gratuites de l'App Store d'Apple, dépassant ChatGPT et Gemini, portée par le soutien du public après l'interdiction fédérale du président Trump sur l'outil en raison des refus d'Anthropic en matière de sécurité IA.

Rapporté par l'IA

L'outil d'IA Claude Cowork d'Anthropic a provoqué une forte baisse des actions d'Infosys, TCS et d'autres entreprises SaaS. Ces firmes ont perdu des centaines de milliards de dollars de valeur boursière. Le déclencheur est l'essor de l'IA.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser