Kali Linux lança ferramentas de IA locais para testes de penetração

A equipa do Kali Linux lançou um guia para executar testes de penetração impulsionados por IA inteiramente em hardware local, eliminando dependências de nuvem. Esta configuração usa Ollama, 5ire e MCP Kali Server para ativar comandos em linguagem natural para ferramentas de segurança. Publicado a 10 de março de 2026, o guia aborda preocupações de privacidade em ambientes sensíveis.

A equipa do Kali Linux publicou um novo guia a 10 de março de 2026, como parte da sua série sobre ferramentas de segurança impulsionadas por modelos de linguagem grande (LLM). Esta entrada foca-se numa pilha totalmente auto-hospedada que processa todas as operações de IA em hardware local, evitando serviços de nuvem de terceiros. A abordagem aborda questões de privacidade e segurança operacional que têm limitado a IA baseada em nuvem em testes de penetração. A configuração requer uma GPU NVIDIA com suporte a CUDA. O guia usa uma NVIDIA GeForce GTX 1060 com 6 GB de VRAM como hardware de referência. Envolve a instalação dos drivers proprietários da NVIDIA, substituindo o driver de código aberto Nouveau, para ativar a aceleração CUDA. Após a instalação e reinicialização, o sistema confirma a Versão do Driver 550.163.01 e a Versão CUDA 12.4. Ollama serve como o motor central LLM, atuando como um wrapper para llama.cpp para simplificar a gestão de modelos. Instalado via um tarball Linux AMD64 e configurado como um serviço systemd, executa em segundo plano. O guia avalia três modelos com suporte a chamadas de ferramentas: llama3.1:8b (4.9 GB), llama3.2:3b (2.0 GB) e qwen3:4b (2.5 GB), todos cabendo no limite de 6 GB de VRAM. O Protocolo de Contexto de Modelo (MCP) integra a IA com ferramentas de segurança através do pacote mcp-kali-server, disponível nos repositórios Kali. Isto cria um servidor Flask local em 127.0.0.1:5000, verificando ferramentas como nmap, gobuster, dirb e nikto. Suporta tarefas como testes de aplicações web, desafios CTF e interações com plataformas como Hack The Box ou TryHackMe. Para conectar Ollama e MCP, o guia usa 5ire, um assistente de IA de código aberto e cliente MCP distribuído como um AppImage Linux na versão 0.15.3. Instalado em /opt/5ire/ e configurado com uma entrada de desktop, ativa Ollama como o fornecedor e regista mcp-kali-server para acesso às ferramentas. A validação envolveu um prompt em linguagem natural no 5ire, usando qwen3:4b, para escanear scanme.nmap.org nas portas 80, 443, 21 e 22. O LLM invocou nmap via MCP, entregando resultados estruturados offline, com processamento total em GPU confirmado. De acordo com a Equipa do Kali Linux, «a pilha completa Ollama, mcp-kali-server e 5ire são de código aberto, dependentes de hardware em vez de serviços, e ajustáveis com base no VRAM disponível.» Esta configuração oferece uma opção que preserva a privacidade para equipas vermelhas e investigadores em configurações air-gapped ou sensíveis a dados.

Artigos relacionados

Tech leaders announcing Linux Foundation's AI-powered cybersecurity initiative for open source software with major partners.
Imagem gerada por IA

Linux Foundation announces AI security initiative with tech partners

Reportado por IA Imagem gerada por IA

The Linux Foundation has launched a new initiative using Anthropic's Claude Mythos preview for defensive cybersecurity in open source software. Partners include AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan, Microsoft, NVIDIA, and Palo Alto Networks. The effort aims to secure critical software amid the rise of AI for open source maintainers.

The open-source project Ollama has announced the release of its version 0.17. This update features enhancements to OpenClaw onboarding. The news was reported by Phoronix.

Reportado por IA

A new tutorial shows how to run large language models and vision-language models locally on the Arduino UNO Q microcontroller. Edge Impulse's Marc Pous has outlined steps using the yzma tool to enable offline AI inference on the board's Linux environment. This approach allows for privacy-focused applications in edge computing.

Following its January launch, the Linux Foundation is promoting its LFWS307 'Deploying Small Language Models' course, highlighting SLM deployment as a key AI skill for IT professionals. The training emphasizes efficient, portable models via hands-on labs, aligning with MLOps and Edge AI trends.

Reportado por IA

The Linux kernel project has officially documented its policy on AI-assisted code contributions with the release of Linux 7.0. The guidelines require human accountability, disclosure of AI tool use, and a new 'Assisted-by' tag for patches involving AI. Sasha Levin formalized the consensus reached at the 2025 Maintainers Summit.

sexta-feira, 10 de abril de 2026, 14:10h

Greg Kroah-Hartman runs AI-assisted fuzzing on Linux kernel

sábado, 28 de março de 2026, 02:04h

Linux maintainer says AI tools now find real bugs

sexta-feira, 27 de março de 2026, 09:04h

OpenAI adds plugins to Codex app for broader integrations

terça-feira, 17 de março de 2026, 01:18h

Nvidia announces NemoClaw, DLSS 5 and Vera CPU at GTC 2026

quinta-feira, 12 de março de 2026, 19:10h

CIQ announces general availability of Rocky Linux Pro AI

quarta-feira, 11 de março de 2026, 11:04h

Chinese cybersecurity agency warns of OpenClaw AI risks

quarta-feira, 11 de março de 2026, 02:31h

Linux user finds local LLMs easier than on Windows

terça-feira, 10 de março de 2026, 21:38h

NVIDIA reportedly develops open-source AI agent platform

sexta-feira, 06 de março de 2026, 12:26h

Google launches workspace CLI for AI tool integration

quarta-feira, 25 de fevereiro de 2026, 08:44h

Bcachefs creator claims custom LLM is fully conscious

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar