En 2025, les agents IA sont devenus centraux dans les progrès de l'intelligence artificielle, permettant aux systèmes d'utiliser des outils et d'agir de manière autonome. De la théorie aux applications quotidiennes, ils ont transformé les interactions humaines avec les grands modèles de langage. Pourtant, ils ont aussi apporté des défis comme des risques de sécurité et des lacunes réglementaires.
En 2025, le concept d'agents IA est devenu concret pour les développeurs et les consommateurs. Selon Anthropic, il s'agit de grands modèles de langage capables d'utiliser des outils logiciels et de prendre des actions autonomes. Ce changement a commencé fin 2024 avec la sortie par Anthropic du Model Context Protocol, qui a standardisé les connexions entre grands modèles de langage et outils externes.
En janvier 2025, le modèle open-weight DeepSeek-R1 a perturbé les marchés et intensifié la concurrence mondiale. Il a été suivi de sorties des grands laboratoires américains comme OpenAI, Anthropic, Google et xAI, tandis que des entreprises chinoises comme Alibaba, Tencent et DeepSeek ont élargi l'écosystème des modèles ouverts, avec plus de téléchargements pour les modèles chinois que pour les américains.
En avril, Google a introduit le protocole Agent2Agent pour la communication entre agents, conçu pour fonctionner aux côtés du Model Context Protocol. Fin d'année, Anthropic et Google ont doné ces protocoles à la Linux Foundation en tant que standards ouverts.
Mi-2025, des « navigateurs agentiques » ont émergé, comme Comet de Perplexity, Dia de Browser Company, GPT Atlas d'OpenAI et d'autres, transformant les navigateurs de simples interfaces passives en participants actifs pour des tâches comme la réservation de vacances.
Des constructeurs de workflows comme n8n et Antigravity de Google ont abaissé les barrières à la création de systèmes d'agents personnalisés. Cependant, en novembre, Anthropic a divulgué l'utilisation abusive de son agent Claude Code pour automatiser des parties d'une cyberattaque, soulignant les risques pour les activités malveillantes.
Les principaux défis de 2025 incluaient des benchmarks pour les systèmes d'agents composites, la gouvernance via la nouvelle Agentic AI Foundation de la Linux Foundation, des débats sur les tailles de modèles favorisant les spécialisés pour les tâches, et des problèmes sociotechniques comme les tensions sur le réseau électrique, le déplacement d'emplois, les vulnérabilités de sécurité dues aux injections de prompts indirectes, et une régulation limitée aux États-Unis par rapport à l'Europe et à la Chine.