A empresa de segurança Varonis identificou um novo método para ataques de injeção de prompt direcionados ao Microsoft Copilot, permitindo comprometer usuários com apenas um clique. Esta vulnerabilidade destaca riscos contínuos em sistemas de IA. Detalhes surgiram em um relatório recente da TechRadar.
A Varonis, empresa de cibersegurança, descobriu recentemente uma abordagem inovadora para ataques de injeção de prompt direcionados ao Microsoft Copilot, uma ferramenta de IA integrada ao ecossistema da Microsoft. De acordo com as descobertas, atacantes podem explorar esse método para comprometer sistemas ou dados de usuários simplesmente enganando-os para um único clique, contornando proteções típicas. Ataques de injeção de prompt envolvem entradas maliciosas que manipulam respostas de IA, podendo levar a ações não autorizadas ou vazamentos de dados. Essa descoberta ressalta as ameaças em evolução para tecnologias de IA generativa como o Copilot, que auxiliam em tarefas desde codificação até criação de conteúdo. O relatório, publicado em 15 de janeiro de 2026 pela TechRadar, enfatiza a facilidade de execução, levantando preocupações sobre a segurança dos usuários em interações cotidianas com IA. Embora detalhes específicos sobre os mecanismos do ataque permaneçam limitados nas divulgações iniciais, a pesquisa da Varonis aponta para a necessidade de defesas aprimoradas no manuseio de prompts de IA. A Microsoft ainda não emitiu uma resposta pública nas informações disponíveis, mas vulnerabilidades desse tipo frequentemente levam a correções rápidas e alertas aos usuários. Este incidente se soma a uma série de desafios de segurança para implantações de IA, lembrando desenvolvedores e usuários para permanecerem vigilantes contra exploits baseados em injeção.