Technologie IA

Suivre
Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Image générée par IA

Le Pentagone conteste les limites imposées par Anthropic à l'utilisation militaire de Claude, alors que les négociations contractuelles sont tendues

Rapporté par l'IA Image générée par IA Vérifié par des faits

Après que le PDG d'Anthropic, Dario Amodei, a déclaré fin février que l'entreprise ne permettrait pas que son modèle Claude soit utilisé pour la surveillance domestique de masse ou pour des armes entièrement autonomes, de hauts responsables du Pentagone ont déclaré qu'ils n'avaient pas l'intention d'utiliser l'IA pour la surveillance domestique et ont insisté sur le fait que les entreprises privées ne peuvent pas fixer de limites contraignantes sur la manière dont l'armée américaine utilise les outils d'IA.

Lors de la Game Developers Conference 2026 à San Francisco, les outils d'IA générative ont suscité des réactions mitigées, les démonstrations de Google soulignant des utilisations potentielles dans un contexte de scepticisme généralisé parmi les développeurs. Un récent rapport sectoriel montre que 52 % des entreprises utilisent cette technologie, mais que seulement 36 % des travailleurs l'intègrent à leur travail, et que 52 % la considèrent comme préjudiciable au secteur.

Rapporté par l'IA

Suite à des rapports antérieurs faisant état d'attaques directes contre les agents d'intelligence artificielle d'OpenClaw, TechRadar prévient que les voleurs d'informations se déguisent désormais en Claude Code, OpenClaw et autres outils de développement d'intelligence artificielle. Les utilisateurs doivent faire preuve de prudence en ce qui concerne les résultats des moteurs de recherche. Publié le 18 mars 2026.

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser