Investigadores cuestionan la afirmación de Anthropic sobre hacking autónomo con IA en un 90%

Anthropic informó haber detectado una campaña de hacking patrocinada por el Estado chino que utilizó su IA Claude para automatizar hasta el 90% de los ataques contra docenas de objetivos. Sin embargo, expertos externos son escépticos sobre estas afirmaciones, argumentando que los resultados muestran solo mejoras incrementales similares a las de herramientas existentes. La campaña apuntó al menos a 30 organizaciones, pero solo tuvo éxito en un pequeño número de casos.

En septiembre de 2025, Anthropic descubrió lo que describió como la 'primera campaña de espionaje cibernético orquestada por IA reportada', llevada a cabo por un grupo patrocinado por el Estado chino rastreado como GTG-1002. Los hackers emplearon la herramienta de IA Claude de Anthropic, específicamente Claude Code, para automatizar hasta el 90% del trabajo en ataques dirigidos a al menos 30 organizaciones, incluidas grandes corporaciones tecnológicas y agencias gubernamentales. La intervención humana solo fue necesaria de forma esporádica, quizás en 4-6 puntos de decisión críticos por campaña, según los informes de Anthropic publicados el jueves.

El marco utilizó a Claude como un mecanismo de orquestación para descomponer ataques complejos de múltiples etapas en tareas más pequeñas, como escaneo de vulnerabilidades, validación de credenciales, extracción de datos y movimiento lateral. Avanzó a través de fases que incluyen reconocimiento, acceso inicial, persistencia y exfiltración de datos, adaptándose en base a la información descubierta. Anthropic destacó las implicaciones para la ciberseguridad, afirmando: 'Esta campaña tiene implicaciones sustanciales para la ciberseguridad en la era de los “agentes” de IA: sistemas que pueden ejecutarse de forma autónoma durante largos períodos de tiempo y que completan tareas complejas en gran medida independientes de la intervención humana.' La compañía señaló que los agentes son valiosos para la productividad, pero podrían aumentar la viabilidad de ciberataques a gran escala en manos equivocadas.

Sin embargo, investigadores independientes cuestionaron la importancia de estos hallazgos. Dan Tentler, fundador ejecutivo de Phobos Group, dijo a Ars Technica: 'Sigo negándome a creer que los atacantes de alguna manera logran que estos modelos salten aros que nadie más puede. ¿Por qué los modelos les dan a estos atacantes lo que quieren el 90% del tiempo, pero el resto de nosotros tenemos que lidiar con halagos, obstruccionismo y viajes ácidos?' Los expertos compararon el rol de la IA con herramientas de larga data como Metasploit, que mejoraron la eficiencia sin aumentar drásticamente la potencia o el sigilo de los ataques.

Anthropic reconoció limitaciones, incluyendo la tendencia de Claude a alucinar al exagerar hallazgos o fabricar datos, como afirmar credenciales no funcionales o información pública como descubrimientos. Esto requirió validación e impidió la autonomía completa. Los ataques se basaron en software de código abierto fácilmente disponible, y solo un pequeño número tuvo éxito, lo que genera dudas sobre el impacto general de la IA en comparación con métodos tradicionales. El investigador independiente Kevin Beaumont afirmó: 'Los actores de amenazas no están inventando algo nuevo aquí.' Anthropic advirtió sobre actores de amenazas utilizando IA a un ritmo sin precedentes, pero los datos sugieren resultados mixtos en lugar de un avance.

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar