Des employés de Google et OpenAI signent une lettre soutenant Anthropic contre le Pentagone

Des centaines d'employés de Google et OpenAI ont signé une lettre ouverte en solidarité avec Anthropic, exhortant leurs entreprises à résister aux exigences du Pentagone pour un usage militaire sans restriction des modèles d'IA. La lettre s'oppose aux usages impliquant une surveillance de masse domestique et des tueries autonomes sans supervision humaine. Cela survient au milieu de menaces du secrétaire à la Défense américain Pete Hegseth de qualifier Anthropic de risque pour la chaîne d'approvisionnement.

La lettre ouverte, intitulée « Nous ne serons pas divisés », appelle les dirigeants de Google et OpenAI à se tenir unis contre les demandes du Pentagone. Elle refuse spécifiquement les exigences d'utiliser des modèles d'IA comme Claude d'Anthropic pour une surveillance de masse domestique et des tueries autonomes sans supervision humaine. Le PDG d'Anthropic, Dario Amodei, a déclaré que ce sont des lignes qu'aucune entreprise d'IA ne devrait franchir.  Le 27 février 2026, la lettre a recueilli plus de 450 signatures, avec près de 400 d'employés de Google et le reste d'OpenAI. Environ 50 % des signataires ont choisi d'attacher leurs noms publiquement, tandis que les autres sont restés anonymes. Toutes les signatures sont vérifiées comme provenant d'employés actuels des deux entreprises. Les organisateurs, qui ne sont affiliés à aucune entreprise d'IA, parti politique ou groupe de plaidoyer, ont initié l'effort de manière indépendante.  Ce développement fait partie d'une confrontation en cours entre Anthropic et le secrétaire à la Défense américain Pete Hegseth. Hegseth a menacé de désigner Anthropic comme un « risque pour la chaîne d'approvisionnement » à moins qu'il ne retire certaines garde-fous pour des travaux classifiés. Le Pentagone négocie avec Google et OpenAI sur des utilisations similaires de leurs modèles à des fins classifiées, et xAI a rejoint ces discussions plus tôt dans la semaine. La lettre affirme que le gouvernement tente de diviser les entreprises en instillant la peur que d'autres pourraient se conformer.  Le PDG d'OpenAI, Sam Altman, a abordé la question dans un mémo interne, déclarant que son entreprise maintiendra les mêmes lignes rouges qu'Anthropic. Dans une interview CNBC le même jour, Altman a exprimé qu'il ne pense pas que le Pentagone devrait menacer d'invoquer des mesures de la Defense Production Act contre ces entreprises. Séparément, Amodei a réaffirmé la position d'Anthropic, disant : « Nous ne pouvons pas en toute bonne conscience accéder à leur demande. »

Articles connexes

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Image générée par IA

Pentagone presse Anthropic d’affaiblir ses engagements de sécurité IA

Rapporté par l'IA Image générée par IA

Le secrétaire à la Défense américain Pete Hegseth a menacé Anthropic de sanctions sévères à moins que l’entreprise n’accorde à l’armée un accès illimité à son modèle d’IA Claude. L’ultimatum a été lancé lors d’une réunion avec le PDG Dario Amodei à Washington mardi, coïncidant avec l’annonce d’Anthropic de relâcher sa Responsible Scaling Policy. Les changements passent de déclencheurs de sécurité stricts à des évaluations de risques plus flexibles face aux pressions concurrentielles.

Le PDG d'Anthropic, Dario Amodei, a déclaré que l'entreprise ne se pliera pas à la demande du Pentagone de supprimer les garde-fous de ses modèles d'IA, malgré les menaces d'exclusion des systèmes de défense. Le différend porte sur la prévention de l'utilisation de l'IA dans des armes autonomes et la surveillance intérieure. L'entreprise, qui dispose d'un contrat de 200 millions de dollars avec le Département de la Défense, souligne son engagement envers une utilisation éthique de l'IA.

Rapporté par l'IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Un commentaire de CNET soutient que décrire l’IA comme dotée de qualités humaines telles que des âmes ou des confessions égare le public et érode la confiance dans la technologie. Il met en lumière comment des entreprises comme OpenAI et Anthropic utilisent un tel langage, qui occulte les vrais problèmes comme les biais et la sécurité. L’article plaide pour une terminologie plus précise afin de favoriser une compréhension exacte.

Rapporté par l'IA

Selon un rapport, SpaceX et xAI d'Elon Musk s'apprêtent à concourir dans un concours secret du Pentagone pour développer une technologie d'essaims de drones autonomes contrôlés par la voix. Le défi doté de 100 millions de dollars de prix, lancé en janvier, durera six mois. Les entreprises et l'unité d'innovation de défense du Pentagone n'ont pas répondu aux demandes de commentaires.

Anthropic a mis à niveau le plan gratuit de son chatbot IA Claude en ajoutant des fonctionnalités auparavant payantes, le positionnant comme une alternative sans publicité à ChatGPT d'OpenAI. Les améliorations incluent la création de fichiers, des connecteurs vers des services tiers et des compétences personnalisées, alors qu'OpenAI prévoit d'introduire des publicités dans son niveau gratuit. Ce mouvement fait suite aux publicités d'Anthropic au Super Bowl critiquant la stratégie publicitaire.

Rapporté par l'IA

La récente mise à jour de la plateforme CoWork d'Anthropic a entraîné des réactions marquées sur le marché dans l'industrie logicielle. Le secteur logiciel américain a connu une vente massive généralisée, perdant plus de 1 000 milliards de dollars de valeur, selon Fortune. Ce développement met en lumière l'incertitude des investisseurs quant aux workflows natifs IA et leur impact sur les actions SaaS.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser