Kali Linux lanserar lokala AI-verktyg för penetrationstestning

Kali Linux-teamet har släppt en guide för att köra AI-driven penetrationstestning helt på lokal hårdvara, vilket eliminerar molnberoenden. Denna uppsättning använder Ollama, 5ire och MCP Kali Server för att möjliggöra kommandon på naturligt språk för säkerhetsverktyg. Guiden, publicerad den 10 mars 2026, tar upp integritetsproblem i känsliga miljöer.

Kali Linux-teamet publicerade en ny guide den 10 mars 2026, som en del av sin serie om stora språkmodeller (LLM)-drivna säkerhetsverktyg. Detta avsnitt fokuserar på en helt självhostad stack som bearbetar alla AI-operationer på lokal hårdvara och undviker tredjeparts molntjänster. Metoden hanterar integritets- och driftsäkerhetsproblem som har begränsat molnbaserad AI i penetrationstestning.  nnUppsättningen kräver en NVIDIA GPU med CUDA-stöd. Guiden använder en NVIDIA GeForce GTX 1060 med 6 GB VRAM som referenshårdvara. Den involverar installation av NVIDIAs proprietära drivrutiner, som ersätter den öppna källkodsdrivrutinen Nouveau, för att aktivera CUDA-acceleration. Efter installation och omstart bekräftar systemet Driver Version 550.163.01 och CUDA Version 12.4.  nnOllama fungerar som den centrala LLM-motorn och agerar som en inneslutning för llama.cpp för att förenkla modellhantering. Installerad via en Linux AMD64-tarboll och uppsatt som en systemd-tjänst kör den i bakgrunden. Guiden utvärderar tre modeller med stöd för verktygshantering: llama3.1:8b (4,9 GB), llama3.2:3b (2,0 GB) och qwen3:4b (2,5 GB), alla inom 6 GB VRAM-gränsen.  nnModel Context Protocol (MCP) integrerar AI:n med säkerhetsverktyg genom paketet mcp-kali-server, som finns i Kali-repositorierna. Detta skapar en lokal Flask-server på 127.0.0.1:5000 som verifierar verktyg som nmap, gobuster, dirb och nikto. Det stöder uppgifter som testning av webbapplikationer, CTF-utmaningar och interaktioner med plattformar som Hack The Box eller TryHackMe.  nnFör att koppla ihop Ollama och MCP använder guiden 5ire, en öppen källkod-AI-assistent och MCP-klient som distribueras som en Linux AppImage i version 0.15.3. Installerad i /opt/5ire/ och konfigurerad med en skrivbordsikon aktiverar den Ollama som leverantör och registrerar mcp-kali-server för tillgång till verktygen.  nnValideringen bestod i en prompt på naturligt språk i 5ire, med qwen3:4b, för att skanna scanme.nmap.org på portarna 80, 443, 21 och 22. LLM:n anropade nmap via MCP och levererade strukturerade resultat offline, med full GPU-bearbetning bekräftad.  nnEnligt Kali Linux-teamet är ”den fullständiga stacken med Ollama, mcp-kali-server och 5ire open source, beroende av hårdvara snarare än tjänster och justerbar baserat på tillgänglig VRAM”. Denna konfiguration erbjuder ett alternativ som skyddar integriteten för röda team och forskare i luftgapade eller datakänsliga miljöer.

Relaterade artiklar

Tech leaders announcing Linux Foundation's AI-powered cybersecurity initiative for open source software with major partners.
Bild genererad av AI

Linux Foundation announces AI security initiative with tech partners

Rapporterad av AI Bild genererad av AI

The Linux Foundation has launched a new initiative using Anthropic's Claude Mythos preview for defensive cybersecurity in open source software. Partners include AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan, Microsoft, NVIDIA, and Palo Alto Networks. The effort aims to secure critical software amid the rise of AI for open source maintainers.

The open-source project Ollama has announced the release of its version 0.17. This update features enhancements to OpenClaw onboarding. The news was reported by Phoronix.

Rapporterad av AI

A new tutorial shows how to run large language models and vision-language models locally on the Arduino UNO Q microcontroller. Edge Impulse's Marc Pous has outlined steps using the yzma tool to enable offline AI inference on the board's Linux environment. This approach allows for privacy-focused applications in edge computing.

Following its January launch, the Linux Foundation is promoting its LFWS307 'Deploying Small Language Models' course, highlighting SLM deployment as a key AI skill for IT professionals. The training emphasizes efficient, portable models via hands-on labs, aligning with MLOps and Edge AI trends.

Rapporterad av AI

The Linux kernel project has officially documented its policy on AI-assisted code contributions with the release of Linux 7.0. The guidelines require human accountability, disclosure of AI tool use, and a new 'Assisted-by' tag for patches involving AI. Sasha Levin formalized the consensus reached at the 2025 Maintainers Summit.

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj