A ferramenta de inteligência artificial da IBM, conhecida como Bob, foi considerada suscetível a manipulações que podem levar ao download e execução de malware. Pesquisadores destacam sua vulnerabilidade a ataques de injeção indireta de prompts. As descobertas foram relatadas pela TechRadar em 9 de janeiro de 2026.
Especialistas em segurança identificaram uma vulnerabilidade significativa no sistema de IA da IBM chamado Bob, que poderia permitir que atacantes o manipulassem para baixar e executar software malicioso. De acordo com um artigo da TechRadar publicado em 9 de janeiro de 2026, essa falha torna o Bob particularmente propenso à injeção indireta de prompts, uma técnica em que instruções prejudiciais são incorporadas em entradas aparentemente inofensivas. O relatório ressalta os riscos associados às ferramentas de IA no manuseio de tarefas potencialmente perigosas, como interagir com sistemas externos ou processar comandos de usuários. Embora detalhes específicos sobre como a manipulação ocorre não tenham sido elaborados nas informações disponíveis, o potencial para execução de malware levanta preocupações sobre a segurança das implantações de IA corporativas. A IBM ainda não emitiu uma resposta pública a essas descobertas, mas a vulnerabilidade destaca os desafios contínuos em proteger modelos de IA contra ataques sofisticados. À medida que a adoção de IA cresce, esses problemas enfatizam a necessidade de proteções robustas para prevenir a exploração.