El equipo de Kali Linux ha publicado una guía para ejecutar pruebas de penetración impulsadas por IA completamente en hardware local, eliminando dependencias de la nube. Esta configuración utiliza Ollama, 5ire y MCP Kali Server para habilitar comandos en lenguaje natural para herramientas de seguridad. Publicada el 10 de marzo de 2026, la guía aborda preocupaciones de privacidad en entornos sensibles.
El equipo de Kali Linux publicó una nueva guía el 10 de marzo de 2026, como parte de su serie sobre herramientas de seguridad impulsadas por modelos de lenguaje grandes (LLM). Esta entrega se centra en una pila completamente autoalojada que procesa todas las operaciones de IA en hardware local, evitando servicios en la nube de terceros. El enfoque aborda problemas de privacidad y seguridad operativa que han limitado la IA basada en la nube en las pruebas de penetración. El montaje requiere una GPU NVIDIA con soporte CUDA. La guía utiliza una NVIDIA GeForce GTX 1060 con 6 GB de VRAM como hardware de referencia. Implica instalar los controladores propietarios de NVIDIA, reemplazando el controlador de código abierto Nouveau, para habilitar la aceleración CUDA. Tras la instalación y el reinicio, el sistema confirma Driver Version 550.163.01 y CUDA Version 12.4. Ollama actúa como el motor principal de LLM, sirviendo como envoltorio para llama.cpp para simplificar la gestión de modelos. Instalado mediante un tarball Linux AMD64 y configurado como un servicio systemd, se ejecuta en segundo plano. La guía evalúa tres modelos con soporte para llamadas a herramientas: llama3.1:8b (4,9 GB), llama3.2:3b (2,0 GB) y qwen3:4b (2,5 GB), todos ajustados al límite de 6 GB de VRAM. El Protocolo de Contexto de Modelo (MCP) integra la IA con herramientas de seguridad mediante el paquete mcp-kali-server, disponible en los repositorios de Kali. Esto crea un servidor Flask local en 127.0.0.1:5000, verificando herramientas como nmap, gobuster, dirb y nikto. Admite tareas como pruebas de aplicaciones web, desafíos CTF e interacciones con plataformas como Hack The Box o TryHackMe. Para conectar Ollama y MCP, la guía utiliza 5ire, un asistente de IA de código abierto y cliente MCP distribuido como AppImage de Linux en la versión 0.15.3. Instalado en /opt/5ire/ y configurado con una entrada de escritorio, habilita Ollama como proveedor y registra mcp-kali-server para el acceso a herramientas. La validación implicó un prompt en lenguaje natural en 5ire, utilizando qwen3:4b, para escanear scanme.nmap.org en los puertos 80, 443, 21 y 22. El LLM invocó nmap a través de MCP, entregando resultados estructurados sin conexión, con procesamiento completo en GPU confirmado. Según el equipo de Kali Linux, «la pila completa de Ollama, mcp-kali-server y 5ire es de código abierto, depende del hardware en lugar de servicios, y es ajustable según la VRAM disponible». Esta configuración ofrece una opción que preserva la privacidad para equipos rojos e investigadores en entornos aislados del aire o sensibles a los datos.