Kali Linux lance des outils d'IA locaux pour les tests de pénétration

L'équipe de Kali Linux a publié un guide pour exécuter des tests de pénétration pilotés par l'IA entièrement sur du matériel local, éliminant les dépendances au cloud. Cette configuration utilise Ollama, 5ire et MCP Kali Server pour permettre des commandes en langage naturel pour les outils de sécurité. Publié le 10 mars 2026, le guide aborde les préoccupations de confidentialité dans des environnements sensibles.

L'équipe de Kali Linux a publié un nouveau guide le 10 mars 2026, dans le cadre de sa série sur les outils de sécurité pilotés par des grands modèles de langage (LLM). Cette entrée se concentre sur une pile entièrement auto-hébergée qui traite toutes les opérations d'IA sur du matériel local, évitant les services cloud tiers. Cette approche aborde les problèmes de confidentialité et de sécurité opérationnelle qui ont limité l'IA basée sur le cloud dans les tests de pénétration.  nnLa configuration nécessite un GPU NVIDIA avec prise en charge de CUDA. Le guide utilise un NVIDIA GeForce GTX 1060 avec 6 Go de VRAM comme matériel de référence. Elle implique l'installation des pilotes propriétaires de NVIDIA, remplaçant le pilote open-source Nouveau, pour activer l'accélération CUDA. Après l'installation et le redémarrage, le système confirme la version du pilote 550.163.01 et la version CUDA 12.4.  nnOllama sert de moteur principal LLM, agissant comme un wrapper pour llama.cpp afin de simplifier la gestion des modèles. Installé via un tarball Linux AMD64 et configuré comme un service systemd, il s'exécute en arrière-plan. Le guide évalue trois modèles avec support d'appel d'outils : llama3.1:8b (4,9 Go), llama3.2:3b (2,0 Go) et qwen3:4b (2,5 Go), tous s'insérant dans la limite de 6 Go de VRAM.  nnLe Protocole de contexte de modèle (MCP) intègre l'IA avec les outils de sécurité via le paquet mcp-kali-server, disponible dans les dépôts Kali. Cela crée un serveur Flask local sur 127.0.0.1:5000, vérifiant des outils comme nmap, gobuster, dirb et nikto. Il prend en charge des tâches telles que les tests d'applications web, les défis CTF, et les interactions avec des plateformes comme Hack The Box ou TryHackMe.  nnPour connecter Ollama et MCP, le guide utilise 5ire, un assistant IA open-source et client MCP distribué sous forme d'AppImage Linux en version 0.15.3. Installé dans /opt/5ire/ et configuré avec une entrée de bureau, il active Ollama comme fournisseur et enregistre mcp-kali-server pour l'accès aux outils.  nnLa validation a impliqué une invite en langage naturel dans 5ire, utilisant qwen3:4b, pour scanner scanme.nmap.org sur les ports 80, 443, 21 et 22. Le LLM a invoqué nmap via MCP, fournissant des résultats structurés hors ligne, avec un traitement GPU complet confirmé.  nnSelon l'équipe de Kali Linux, « la pile complète Ollama, mcp-kali-server et 5ire est open source, dépendante du matériel plutôt que des services, et ajustable en fonction de la VRAM disponible. » Cette configuration offre une option préservant la confidentialité pour les équipes rouges et les chercheurs dans des environnements air-gapped ou sensibles aux données.

Articles connexes

Illustration of Kali Linux 2025.4 release on a hacker's laptop screen, showcasing new tools and updated desktop in a realistic cybersecurity workspace.
Image générée par IA

Kali Linux 2025.4 publié avec de nouveaux outils et mises à jour du bureau

Rapporté par l'IA Image générée par IA

Kali Linux a publié la version 2025.4 le 12 décembre 2025, marquant sa dernière mise à jour de l'année. Cette publication introduit trois nouveaux outils de piratage, des améliorations significatives de l'environnement de bureau et un support renforcé pour Kali NetHunter. Elle vise à moderniser l'expérience utilisateur pour les professionnels de la cybersécurité et les hackers éthiques.

Le projet open-source Ollama a annoncé la sortie de sa version 0.17. Cette mise à jour comprend des améliorations pour l'onboarding OpenClaw. L'information a été rapportée par Phoronix.

Rapporté par l'IA

Un nouveau tutoriel montre comment exécuter des modèles de langage large et des modèles vision-langage localement sur le microcontrôleur Arduino UNO Q. Marc Pous d'Edge Impulse a détaillé les étapes utilisant l'outil yzma pour activer l'inférence IA hors ligne dans l'environnement Linux de la carte. Cette approche permet des applications axées sur la confidentialité en edge computing.

Les agents de codage IA de sociétés comme OpenAI, Anthropic et Google permettent un travail prolongé sur des projets logiciels, y compris l'écriture d'applications et la correction de bugs sous surveillance humaine. Ces outils reposent sur de grands modèles de langage mais font face à des défis comme un traitement de contexte limité et des coûts computationnels élevés. Comprendre leur fonctionnement aide les développeurs à décider quand les déployer efficacement.

Rapporté par l'IA

L'outil b4 de développement du noyau Linux teste désormais en interne son agent IA conçu pour assister aux revues de code. Cette étape, connue sous le nom de dog-feeding, marque une application pratique de la fonctionnalité IA dans le processus de développement de l'outil. Cette mise à jour provient de Phoronix, une source clé d'informations sur Linux.

La Linux Foundation a introduit un nouvel atelier dirigé par un instructeur axé sur le déploiement de petits modèles de langage dans divers environnements. Intitulé 'Deploying Small Language Models (LFWS307)', le cours propose une formation pratique sur plusieurs plateformes. Les inscriptions sont désormais ouvertes pour cette session en direct.

Rapporté par l'IA

Google has introduced a new command-line interface tool for its Workspace suite, aimed at simplifying integration with AI systems like OpenClaw. The tool bundles APIs from products such as Gmail, Drive, and Calendar, though it is not an officially supported product. This release emphasizes ease of use for both human developers and AI agents.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser