Le gouvernement britannique courtise Anthropic pour une extension de ses bureaux à Londres

Le ministère britannique de la Science, de l'Innovation et de la Technologie a proposé à Anthropic d'agrandir ses bureaux londoniens et d'envisager une éventuelle double cotation boursière, selon un rapport du Financial Times. Cette initiative fait suite à un différend entre l'entreprise d'IA basée à San Francisco et le département de la Défense des États-Unis. Les autorités cherchent à attirer Anthropic dans un contexte de tensions persistantes.

Le personnel du ministère britannique de la Science, de l'Innovation et de la Technologie a élaboré des propositions pour qu'Anthropic accroisse sa présence à Londres, notamment par l'agrandissement de ses bureaux et une possible double cotation sur les marchés britanniques. Le Financial Times a cité des sources proches des discussions, notant que ces initiatives se sont intensifiées ces dernières semaines en raison des désaccords d'Anthropic avec le gouvernement américain. L'entreprise de San Francisco dispose déjà d'un bureau dans la ville, mais fait face à la concurrence de rivaux comme OpenAI, qui s'est engagé à poursuivre son expansion sur place en février. Le conflit entre Anthropic et le département de la Défense des États-Unis a éclaté plus tôt cette année lorsque l'entreprise a refusé de modifier certaines mesures de sécurité de l'IA, connues sous le nom de "guardrails". En réponse, le département de la Défense a résilié un contrat et a qualifié Anthropic de risque pour la chaîne d'approvisionnement, bien qu'une injonction judiciaire ait suspendu cette désignation pour le moment. Des sources ont déclaré au Financial Times que le différend se poursuit sans résolution. Le PDG d'Anthropic, Dario Amodei, prévoit une visite au Royaume-Uni en mai, selon le rapport. Les autorités britanniques y voient une opportunité de renforcer leur secteur de l'IA en attirant les meilleurs talents et investissements, tout en profitant des difficultés rencontrées par l'entreprise aux États-Unis.

Articles connexes

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Image générée par IA

Anthropic poursuit le département de la Défense américain en justice pour sa désignation comme risque dans la chaîne d'approvisionnement

Rapporté par l'IA Image générée par IA

Anthropic a déposé une plainte fédérale contre le département de la Défense des États-Unis, contestant son étiquetage récent de l'entreprise d'IA comme un risque pour la chaîne d'approvisionnement. Le différend provient d'un désaccord contractuel sur l'utilisation de l'IA Claude d'Anthropic à des fins militaires, incluant des restrictions sur la surveillance de masse et les armes autonomes. L'entreprise affirme que cette désignation viole les droits à la liberté d'expression et aux garanties procédurales.

Anthropic a lancé l’Anthropic Institute, une nouvelle initiative de recherche, et ouvert son premier bureau de politique publique à Washington, DC, ce printemps. Ces mesures font suite au récent procès fédéral intenté par l’entreprise d’IA contre le gouvernement américain concernant une désignation de risque dans la chaîne d’approvisionnement du Département de la Défense liée à un différend contractuel.

Rapporté par l'IA

Après l’interdiction fédérale la semaine dernière de ses outils d’IA, Anthropic a repris les négociations avec le département de la Défense des États-Unis pour éviter une désignation de risque pour la chaîne d’approvisionnement. Parallèlement, l’accord militaire parallèle d’OpenAI fait l’objet de critiques de la part des employés, des rivaux et du PDG d’Anthropic, Dario Amodei, qui l’a accusé de déclarations trompeuses dans un mémo divulgué.

Des centaines d'employés de Google et OpenAI ont signé une lettre ouverte en solidarité avec Anthropic, exhortant leurs entreprises à résister aux exigences du Pentagone pour un usage militaire sans restriction des modèles d'IA. La lettre s'oppose aux usages impliquant une surveillance de masse domestique et des tueries autonomes sans supervision humaine. Cela survient au milieu de menaces du secrétaire à la Défense américain Pete Hegseth de qualifier Anthropic de risque pour la chaîne d'approvisionnement.

Rapporté par l'IA

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

L'outil d'IA Claude Cowork d'Anthropic a provoqué une forte baisse des actions d'Infosys, TCS et d'autres entreprises SaaS. Ces firmes ont perdu des centaines de milliards de dollars de valeur boursière. Le déclencheur est l'essor de l'IA.

Rapporté par l'IA

Anthropic a étendu sa capacité de mémoire au niveau gratuit de son chatbot IA Claude, permettant aux utilisateurs de référencer des conversations passées. L’entreprise a également publié un outil pour importer des souvenirs de chatbots concurrents comme ChatGPT et Gemini. Cette mise à jour coïncide avec la montée en popularité de Claude au milieu d’un différend avec le Département de la Défense des États-Unis.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser