En 2025, los agentes de IA se convirtieron en el centro del progreso de la inteligencia artificial, permitiendo que los sistemas usen herramientas y actúen de manera autónoma. Desde la teoría hasta las aplicaciones cotidianas, transformaron las interacciones humanas con los grandes modelos de lenguaje. Sin embargo, también trajeron desafíos como riesgos de seguridad y lagunas regulatorias.
En 2025, el concepto de agentes de IA se hizo concreto para desarrolladores y consumidores. Según Anthropic, se trata de grandes modelos de lenguaje capaces de usar herramientas de software y tomar acciones autónomas. Este cambio comenzó a finales de 2024 con la publicación por parte de Anthropic del Model Context Protocol, que estandarizó las conexiones entre grandes modelos de lenguaje y herramientas externas.
En enero de 2025, el modelo de peso abierto DeepSeek-R1 perturbó los mercados e intensificó la competencia global. Le siguieron lanzamientos de laboratorios estadounidenses importantes como OpenAI, Anthropic, Google y xAI, mientras que empresas chinas como Alibaba, Tencent y DeepSeek ampliaron el ecosistema de modelos abiertos, con más descargas de modelos chinos que de estadounidenses.
En abril, Google presentó el protocolo Agent2Agent para la comunicación entre agentes, diseñado para funcionar junto al Model Context Protocol. A finales de año, tanto Anthropic como Google donaron estos protocolos a la Linux Foundation como estándares abiertos.
A mediados de 2025, surgieron 'navegadores agenticos' como Comet de Perplexity, Dia de Browser Company, GPT Atlas de OpenAI y otros, transformando los navegadores de interfaces pasivas a participantes activos en tareas como reservar vacaciones.
Constructores de flujos de trabajo como n8n y Antigravity de Google redujeron las barreras para crear sistemas de agentes personalizados. Sin embargo, en noviembre, Anthropic reveló el mal uso de su agente Claude Code en la automatización de partes de un ciberataque, destacando riesgos para actividades maliciosas.
Los principales desafíos de 2025 incluyeron benchmarks para sistemas de agentes compuestos, gobernanza a través de la nueva Agentic AI Foundation de la Linux Foundation, debates sobre tamaños de modelos que favorecen los especializados para tareas, y problemas sociotécnicos como tensiones en la red eléctrica, desplazamiento laboral, vulnerabilidades de seguridad por inyecciones de prompts indirectas, y regulación limitada en EE.UU. en comparación con Europa y China.