Tim Kali Linux telah merilis panduan untuk menjalankan pengujian penetrasi berbasis AI sepenuhnya pada perangkat keras lokal, menghilangkan ketergantungan cloud. Pengaturan ini menggunakan Ollama, 5ire, dan MCP Kali Server untuk mengaktifkan perintah bahasa alami pada alat keamanan. Diterbitkan pada 10 Maret 2026, panduan ini membahas kekhawatiran privasi di lingkungan sensitif.
Tim Kali Linux menerbitkan panduan baru pada 10 Maret 2026, sebagai bagian dari seri tentang alat keamanan berbasis model bahasa besar (LLM). Entri ini berfokus pada tumpukan yang sepenuhnya di-host sendiri yang memproses semua operasi AI pada perangkat keras lokal, menghindari layanan cloud pihak ketiga. Pendekatan ini mengatasi masalah privasi dan keamanan operasional yang telah membatasi AI berbasis cloud dalam pengujian penetrasi. Tim setup memerlukan GPU NVIDIA dengan dukungan CUDA. Panduan menggunakan NVIDIA GeForce GTX 1060 dengan 6 GB VRAM sebagai perangkat keras referensi. Prosesnya melibatkan pemasangan driver proprietary NVIDIA, menggantikan driver open-source Nouveau, untuk mengaktifkan percepatan CUDA. Setelah pemasangan dan reboot, sistem mengonfirmasi Driver Version 550.163.01 dan CUDA Version 12.4. Ollama berfungsi sebagai mesin LLM inti, bertindak sebagai wrapper untuk llama.cpp guna menyederhanakan manajemen model. Dipasang melalui tarball Linux AMD64 dan diatur sebagai layanan systemd, Ollama berjalan di latar belakang. Panduan mengevaluasi tiga model dengan dukungan tool-calling: llama3.1:8b (4.9 GB), llama3.2:3b (2.0 GB), dan qwen3:4b (2.5 GB), yang semuanya muat dalam batas 6 GB VRAM. Model Context Protocol (MCP) mengintegrasikan AI dengan alat keamanan melalui paket mcp-kali-server, yang tersedia di repositori Kali. Paket ini membuat server Flask lokal di 127.0.0.1:5000, memverifikasi alat seperti nmap, gobuster, dirb, dan nikto. MCP mendukung tugas seperti pengujian aplikasi web, tantangan CTF, serta interaksi dengan platform seperti Hack The Box atau TryHackMe. Untuk menghubungkan Ollama dan MCP, panduan menggunakan 5ire, asisten AI open-source dan klien MCP yang didistribusikan sebagai Linux AppImage versi 0.15.3. Dipasang di /opt/5ire/ dan dikonfigurasi dengan entri desktop, 5ire mengaktifkan Ollama sebagai penyedia dan mendaftarkan mcp-kali-server untuk akses alat. Validasi dilakukan dengan prompt bahasa alami di 5ire menggunakan qwen3:4b untuk memindai scanme.nmap.org pada port 80, 443, 21, dan 22. LLM memanggil nmap melalui MCP, menghasilkan output terstruktur secara offline, dengan pemrosesan GPU penuh terkonfirmasi. Menurut Tim Kali Linux, “tumpukan lengkap Ollama, mcp-kali-server, dan 5ire bersifat open source, bergantung pada perangkat keras bukan layanan, serta dapat disesuaikan berdasarkan VRAM yang tersedia.” Konfigurasi ini menawarkan opsi pelestarian privasi bagi tim red dan peneliti di lingkungan air-gapped atau sensitif data.