Anthropic ne peut pas répondre à la demande du Pentagone sur les garde-fous de l'IA, dit le PDG

Le PDG d'Anthropic, Dario Amodei, a déclaré que l'entreprise ne se pliera pas à la demande du Pentagone de supprimer les garde-fous de ses modèles d'IA, malgré les menaces d'exclusion des systèmes de défense. Le différend porte sur la prévention de l'utilisation de l'IA dans des armes autonomes et la surveillance intérieure. L'entreprise, qui dispose d'un contrat de 200 millions de dollars avec le Département de la Défense, souligne son engagement envers une utilisation éthique de l'IA.

Anthropic, une startup d'IA soutenue par Google et Amazon, est en conflit avec le Département de la Défense des États-Unis concernant les garde-fous de sa technologie d'IA, en particulier son modèle Claude. Jeudi, le PDG Dario Amodei a annoncé que l'entreprise ne pouvait pas accéder aux exigences du Pentagone, qui incluent la suppression de restrictions empêchant l'IA d'être utilisée pour cibler des armes de manière autonome ou pour une surveillance intérieure massive aux États-Unis. Le Pentagone a un contrat avec Anthropic d'une valeur allant jusqu'à 200 millions de dollars. Cependant, le département insiste pour ne contracter qu'avec des entreprises d'IA autorisant « tout usage légal » de leur technologie, ce qui nécessite la suppression de tels garde-fous. Amodei a noté que des usages comme la surveillance de masse et les armes totalement autonomes n'ont jamais fait partie de leurs contrats et ne devraient pas l'être maintenant. Il a révélé des menaces du département de retirer Anthropic de ses systèmes, de la désigner comme risque dans la chaîne d'approvisionnement et d'invoquer le Defense Production Act pour imposer les changements. « Quoi qu'il en soit, ces menaces ne changent pas notre position : nous ne pouvons pas en toute bonne conscience accéder à leur demande », a déclaré Amodei. En réponse, le porte-parole du Pentagone Sean Parnell a publié sur X que le département n'a aucun intérêt à utiliser l'IA pour la surveillance de masse des Américains ou à développer des armes autonomes sans intervention humaine. « Voici ce que nous demandons : Autoriser le Pentagone à utiliser le modèle d'Anthropic pour tous les usages légaux », a dit Parnell. Le Pentagone n'a pas immédiatement répondu aux demandes de commentaires sur la déclaration d'Anthropic. Amodei a exprimé l'espoir que le département reconsidère sa position, compte tenu de la valeur de la technologie d'Anthropic pour les forces armées, et s'est offert à faciliter une transition en douceur si nécessaire. Un porte-parole d'Anthropic a ajouté que l'entreprise est prête à poursuivre les discussions et s'engage pour la continuité opérationnelle du Département et des combattants américains.

Articles connexes

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Image générée par IA

Pentagone presse Anthropic d’affaiblir ses engagements de sécurité IA

Rapporté par l'IA Image générée par IA

Le secrétaire à la Défense américain Pete Hegseth a menacé Anthropic de sanctions sévères à moins que l’entreprise n’accorde à l’armée un accès illimité à son modèle d’IA Claude. L’ultimatum a été lancé lors d’une réunion avec le PDG Dario Amodei à Washington mardi, coïncidant avec l’annonce d’Anthropic de relâcher sa Responsible Scaling Policy. Les changements passent de déclencheurs de sécurité stricts à des évaluations de risques plus flexibles face aux pressions concurrentielles.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Rapporté par l'IA

Des centaines d'employés de Google et OpenAI ont signé une lettre ouverte en solidarité avec Anthropic, exhortant leurs entreprises à résister aux exigences du Pentagone pour un usage militaire sans restriction des modèles d'IA. La lettre s'oppose aux usages impliquant une surveillance de masse domestique et des tueries autonomes sans supervision humaine. Cela survient au milieu de menaces du secrétaire à la Défense américain Pete Hegseth de qualifier Anthropic de risque pour la chaîne d'approvisionnement.

La récente mise à jour de la plateforme CoWork d'Anthropic a entraîné des réactions marquées sur le marché dans l'industrie logicielle. Le secteur logiciel américain a connu une vente massive généralisée, perdant plus de 1 000 milliards de dollars de valeur, selon Fortune. Ce développement met en lumière l'incertitude des investisseurs quant aux workflows natifs IA et leur impact sur les actions SaaS.

Rapporté par l'IA

Un commentaire de CNET soutient que décrire l’IA comme dotée de qualités humaines telles que des âmes ou des confessions égare le public et érode la confiance dans la technologie. Il met en lumière comment des entreprises comme OpenAI et Anthropic utilisent un tel langage, qui occulte les vrais problèmes comme les biais et la sécurité. L’article plaide pour une terminologie plus précise afin de favoriser une compréhension exacte.

En 2025, les agents IA sont devenus centraux dans les progrès de l'intelligence artificielle, permettant aux systèmes d'utiliser des outils et d'agir de manière autonome. De la théorie aux applications quotidiennes, ils ont transformé les interactions humaines avec les grands modèles de langage. Pourtant, ils ont aussi apporté des défis comme des risques de sécurité et des lacunes réglementaires.

Rapporté par l'IA

Anthropic a lancé un plugin juridique pour son outil Claude Cowork, suscitant des inquiétudes parmi les fournisseurs d'IA juridique dédiés. Le plugin offre des fonctionnalités utiles pour l'examen des contrats et la conformité, mais reste en deçà du remplacement des plateformes spécialisées. Les entreprises sud-africaines font face à des obstacles supplémentaires en raison des réglementations sur la protection des données.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser