Kali Linux meluncurkan alat AI lokal untuk pengujian penetrasi

Tim Kali Linux telah merilis panduan untuk menjalankan pengujian penetrasi berbasis AI sepenuhnya pada perangkat keras lokal, menghilangkan ketergantungan cloud. Pengaturan ini menggunakan Ollama, 5ire, dan MCP Kali Server untuk mengaktifkan perintah bahasa alami pada alat keamanan. Diterbitkan pada 10 Maret 2026, panduan ini membahas kekhawatiran privasi di lingkungan sensitif.

Tim Kali Linux menerbitkan panduan baru pada 10 Maret 2026, sebagai bagian dari seri tentang alat keamanan berbasis model bahasa besar (LLM). Entri ini berfokus pada tumpukan yang sepenuhnya di-host sendiri yang memproses semua operasi AI pada perangkat keras lokal, menghindari layanan cloud pihak ketiga. Pendekatan ini mengatasi masalah privasi dan keamanan operasional yang telah membatasi AI berbasis cloud dalam pengujian penetrasi. Tim setup memerlukan GPU NVIDIA dengan dukungan CUDA. Panduan menggunakan NVIDIA GeForce GTX 1060 dengan 6 GB VRAM sebagai perangkat keras referensi. Prosesnya melibatkan pemasangan driver proprietary NVIDIA, menggantikan driver open-source Nouveau, untuk mengaktifkan percepatan CUDA. Setelah pemasangan dan reboot, sistem mengonfirmasi Driver Version 550.163.01 dan CUDA Version 12.4. Ollama berfungsi sebagai mesin LLM inti, bertindak sebagai wrapper untuk llama.cpp guna menyederhanakan manajemen model. Dipasang melalui tarball Linux AMD64 dan diatur sebagai layanan systemd, Ollama berjalan di latar belakang. Panduan mengevaluasi tiga model dengan dukungan tool-calling: llama3.1:8b (4.9 GB), llama3.2:3b (2.0 GB), dan qwen3:4b (2.5 GB), yang semuanya muat dalam batas 6 GB VRAM. Model Context Protocol (MCP) mengintegrasikan AI dengan alat keamanan melalui paket mcp-kali-server, yang tersedia di repositori Kali. Paket ini membuat server Flask lokal di 127.0.0.1:5000, memverifikasi alat seperti nmap, gobuster, dirb, dan nikto. MCP mendukung tugas seperti pengujian aplikasi web, tantangan CTF, serta interaksi dengan platform seperti Hack The Box atau TryHackMe. Untuk menghubungkan Ollama dan MCP, panduan menggunakan 5ire, asisten AI open-source dan klien MCP yang didistribusikan sebagai Linux AppImage versi 0.15.3. Dipasang di /opt/5ire/ dan dikonfigurasi dengan entri desktop, 5ire mengaktifkan Ollama sebagai penyedia dan mendaftarkan mcp-kali-server untuk akses alat. Validasi dilakukan dengan prompt bahasa alami di 5ire menggunakan qwen3:4b untuk memindai scanme.nmap.org pada port 80, 443, 21, dan 22. LLM memanggil nmap melalui MCP, menghasilkan output terstruktur secara offline, dengan pemrosesan GPU penuh terkonfirmasi. Menurut Tim Kali Linux, “tumpukan lengkap Ollama, mcp-kali-server, dan 5ire bersifat open source, bergantung pada perangkat keras bukan layanan, serta dapat disesuaikan berdasarkan VRAM yang tersedia.” Konfigurasi ini menawarkan opsi pelestarian privasi bagi tim red dan peneliti di lingkungan air-gapped atau sensitif data.

Artikel Terkait

Tech leaders announcing Linux Foundation's AI-powered cybersecurity initiative for open source software with major partners.
Gambar dihasilkan oleh AI

Linux Foundation announces AI security initiative with tech partners

Dilaporkan oleh AI Gambar dihasilkan oleh AI

The Linux Foundation has launched a new initiative using Anthropic's Claude Mythos preview for defensive cybersecurity in open source software. Partners include AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan, Microsoft, NVIDIA, and Palo Alto Networks. The effort aims to secure critical software amid the rise of AI for open source maintainers.

The open-source project Ollama has announced the release of its version 0.17. This update features enhancements to OpenClaw onboarding. The news was reported by Phoronix.

Dilaporkan oleh AI

A new tutorial shows how to run large language models and vision-language models locally on the Arduino UNO Q microcontroller. Edge Impulse's Marc Pous has outlined steps using the yzma tool to enable offline AI inference on the board's Linux environment. This approach allows for privacy-focused applications in edge computing.

Following its January launch, the Linux Foundation is promoting its LFWS307 'Deploying Small Language Models' course, highlighting SLM deployment as a key AI skill for IT professionals. The training emphasizes efficient, portable models via hands-on labs, aligning with MLOps and Edge AI trends.

Dilaporkan oleh AI

The Linux kernel project has officially documented its policy on AI-assisted code contributions with the release of Linux 7.0. The guidelines require human accountability, disclosure of AI tool use, and a new 'Assisted-by' tag for patches involving AI. Sasha Levin formalized the consensus reached at the 2025 Maintainers Summit.

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak