Kali Linux lance des outils d'IA locaux pour les tests de pénétration

L'équipe de Kali Linux a publié un guide pour exécuter des tests de pénétration pilotés par l'IA entièrement sur du matériel local, éliminant les dépendances au cloud. Cette configuration utilise Ollama, 5ire et MCP Kali Server pour permettre des commandes en langage naturel pour les outils de sécurité. Publié le 10 mars 2026, le guide aborde les préoccupations de confidentialité dans des environnements sensibles.

L'équipe de Kali Linux a publié un nouveau guide le 10 mars 2026, dans le cadre de sa série sur les outils de sécurité pilotés par des grands modèles de langage (LLM). Cette entrée se concentre sur une pile entièrement auto-hébergée qui traite toutes les opérations d'IA sur du matériel local, évitant les services cloud tiers. Cette approche aborde les problèmes de confidentialité et de sécurité opérationnelle qui ont limité l'IA basée sur le cloud dans les tests de pénétration.  nnLa configuration nécessite un GPU NVIDIA avec prise en charge de CUDA. Le guide utilise un NVIDIA GeForce GTX 1060 avec 6 Go de VRAM comme matériel de référence. Elle implique l'installation des pilotes propriétaires de NVIDIA, remplaçant le pilote open-source Nouveau, pour activer l'accélération CUDA. Après l'installation et le redémarrage, le système confirme la version du pilote 550.163.01 et la version CUDA 12.4.  nnOllama sert de moteur principal LLM, agissant comme un wrapper pour llama.cpp afin de simplifier la gestion des modèles. Installé via un tarball Linux AMD64 et configuré comme un service systemd, il s'exécute en arrière-plan. Le guide évalue trois modèles avec support d'appel d'outils : llama3.1:8b (4,9 Go), llama3.2:3b (2,0 Go) et qwen3:4b (2,5 Go), tous s'insérant dans la limite de 6 Go de VRAM.  nnLe Protocole de contexte de modèle (MCP) intègre l'IA avec les outils de sécurité via le paquet mcp-kali-server, disponible dans les dépôts Kali. Cela crée un serveur Flask local sur 127.0.0.1:5000, vérifiant des outils comme nmap, gobuster, dirb et nikto. Il prend en charge des tâches telles que les tests d'applications web, les défis CTF, et les interactions avec des plateformes comme Hack The Box ou TryHackMe.  nnPour connecter Ollama et MCP, le guide utilise 5ire, un assistant IA open-source et client MCP distribué sous forme d'AppImage Linux en version 0.15.3. Installé dans /opt/5ire/ et configuré avec une entrée de bureau, il active Ollama comme fournisseur et enregistre mcp-kali-server pour l'accès aux outils.  nnLa validation a impliqué une invite en langage naturel dans 5ire, utilisant qwen3:4b, pour scanner scanme.nmap.org sur les ports 80, 443, 21 et 22. Le LLM a invoqué nmap via MCP, fournissant des résultats structurés hors ligne, avec un traitement GPU complet confirmé.  nnSelon l'équipe de Kali Linux, « la pile complète Ollama, mcp-kali-server et 5ire est open source, dépendante du matériel plutôt que des services, et ajustable en fonction de la VRAM disponible. » Cette configuration offre une option préservant la confidentialité pour les équipes rouges et les chercheurs dans des environnements air-gapped ou sensibles aux données.

Articles connexes

Tech leaders announcing Linux Foundation's AI-powered cybersecurity initiative for open source software with major partners.
Image générée par IA

Linux Foundation announces AI security initiative with tech partners

Rapporté par l'IA Image générée par IA

The Linux Foundation has launched a new initiative using Anthropic's Claude Mythos preview for defensive cybersecurity in open source software. Partners include AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan, Microsoft, NVIDIA, and Palo Alto Networks. The effort aims to secure critical software amid the rise of AI for open source maintainers.

The open-source project Ollama has announced the release of its version 0.17. This update features enhancements to OpenClaw onboarding. The news was reported by Phoronix.

Rapporté par l'IA

A new tutorial shows how to run large language models and vision-language models locally on the Arduino UNO Q microcontroller. Edge Impulse's Marc Pous has outlined steps using the yzma tool to enable offline AI inference on the board's Linux environment. This approach allows for privacy-focused applications in edge computing.

Following its January launch, the Linux Foundation is promoting its LFWS307 'Deploying Small Language Models' course, highlighting SLM deployment as a key AI skill for IT professionals. The training emphasizes efficient, portable models via hands-on labs, aligning with MLOps and Edge AI trends.

Rapporté par l'IA

The Linux kernel project has officially documented its policy on AI-assisted code contributions with the release of Linux 7.0. The guidelines require human accountability, disclosure of AI tool use, and a new 'Assisted-by' tag for patches involving AI. Sasha Levin formalized the consensus reached at the 2025 Maintainers Summit.

China's national cybersecurity authority has warned of security risks in the OpenClaw AI agent software, which could allow attackers to gain full control of users' computer systems. The software has seen rapid growth in downloads and usage, with major domestic cloud platforms offering one-click deployment services, but its default security configuration is weak.

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser