Kali Linux lanza herramientas de IA locales para pruebas de penetración

El equipo de Kali Linux ha publicado una guía para ejecutar pruebas de penetración impulsadas por IA completamente en hardware local, eliminando dependencias de la nube. Esta configuración utiliza Ollama, 5ire y MCP Kali Server para habilitar comandos en lenguaje natural para herramientas de seguridad. Publicada el 10 de marzo de 2026, la guía aborda preocupaciones de privacidad en entornos sensibles.

El equipo de Kali Linux publicó una nueva guía el 10 de marzo de 2026, como parte de su serie sobre herramientas de seguridad impulsadas por modelos de lenguaje grandes (LLM). Esta entrega se centra en una pila completamente autoalojada que procesa todas las operaciones de IA en hardware local, evitando servicios en la nube de terceros. El enfoque aborda problemas de privacidad y seguridad operativa que han limitado la IA basada en la nube en las pruebas de penetración.  El montaje requiere una GPU NVIDIA con soporte CUDA. La guía utiliza una NVIDIA GeForce GTX 1060 con 6 GB de VRAM como hardware de referencia. Implica instalar los controladores propietarios de NVIDIA, reemplazando el controlador de código abierto Nouveau, para habilitar la aceleración CUDA. Tras la instalación y el reinicio, el sistema confirma Driver Version 550.163.01 y CUDA Version 12.4.  Ollama actúa como el motor principal de LLM, sirviendo como envoltorio para llama.cpp para simplificar la gestión de modelos. Instalado mediante un tarball Linux AMD64 y configurado como un servicio systemd, se ejecuta en segundo plano. La guía evalúa tres modelos con soporte para llamadas a herramientas: llama3.1:8b (4,9 GB), llama3.2:3b (2,0 GB) y qwen3:4b (2,5 GB), todos ajustados al límite de 6 GB de VRAM.  El Protocolo de Contexto de Modelo (MCP) integra la IA con herramientas de seguridad mediante el paquete mcp-kali-server, disponible en los repositorios de Kali. Esto crea un servidor Flask local en 127.0.0.1:5000, verificando herramientas como nmap, gobuster, dirb y nikto. Admite tareas como pruebas de aplicaciones web, desafíos CTF e interacciones con plataformas como Hack The Box o TryHackMe.  Para conectar Ollama y MCP, la guía utiliza 5ire, un asistente de IA de código abierto y cliente MCP distribuido como AppImage de Linux en la versión 0.15.3. Instalado en /opt/5ire/ y configurado con una entrada de escritorio, habilita Ollama como proveedor y registra mcp-kali-server para el acceso a herramientas.  La validación implicó un prompt en lenguaje natural en 5ire, utilizando qwen3:4b, para escanear scanme.nmap.org en los puertos 80, 443, 21 y 22. El LLM invocó nmap a través de MCP, entregando resultados estructurados sin conexión, con procesamiento completo en GPU confirmado.   Según el equipo de Kali Linux, «la pila completa de Ollama, mcp-kali-server y 5ire es de código abierto, depende del hardware en lugar de servicios, y es ajustable según la VRAM disponible». Esta configuración ofrece una opción que preserva la privacidad para equipos rojos e investigadores en entornos aislados del aire o sensibles a los datos.

Artículos relacionados

Tech leaders announcing Linux Foundation's AI-powered cybersecurity initiative for open source software with major partners.
Imagen generada por IA

Linux Foundation announces AI security initiative with tech partners

Reportado por IA Imagen generada por IA

The Linux Foundation has launched a new initiative using Anthropic's Claude Mythos preview for defensive cybersecurity in open source software. Partners include AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan, Microsoft, NVIDIA, and Palo Alto Networks. The effort aims to secure critical software amid the rise of AI for open source maintainers.

The open-source project Ollama has announced the release of its version 0.17. This update features enhancements to OpenClaw onboarding. The news was reported by Phoronix.

Reportado por IA

A new tutorial shows how to run large language models and vision-language models locally on the Arduino UNO Q microcontroller. Edge Impulse's Marc Pous has outlined steps using the yzma tool to enable offline AI inference on the board's Linux environment. This approach allows for privacy-focused applications in edge computing.

Following its January launch, the Linux Foundation is promoting its LFWS307 'Deploying Small Language Models' course, highlighting SLM deployment as a key AI skill for IT professionals. The training emphasizes efficient, portable models via hands-on labs, aligning with MLOps and Edge AI trends.

Reportado por IA

The Linux kernel project has officially documented its policy on AI-assisted code contributions with the release of Linux 7.0. The guidelines require human accountability, disclosure of AI tool use, and a new 'Assisted-by' tag for patches involving AI. Sasha Levin formalized the consensus reached at the 2025 Maintainers Summit.

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar