Especialistas em cibersegurança alertam que hackers estão aproveitando modelos de linguagem grandes (LLMs) para criar ataques de phishing sofisticados. Essas ferramentas de IA permitem a geração de páginas de phishing no local, potencialmente tornando as fraudes mais dinâmicas e difíceis de detectar. A tendência destaca ameaças em evolução na segurança digital.
Num artigo recente publicado pela TechRadar em 26 de janeiro de 2026, é destacado o uso de modelos de linguagem grandes (LLMs) por hackers para desenvolver técnicas avançadas de phishing. O artigo, intitulado 'Hackers estão usando LLMs para construir a próxima geração de ataques de phishing - eis o que deve estar atento', explora como estes sistemas de IA podem automatizar e personalizar esforços de phishing em tempo real. A descrição levanta uma questão chave: 'E se uma página de phishing fosse gerada no local?'. Isto sugere uma mudança de sites de phishing estáticos para dinâmicos, que se podem adaptar a inputs ou contextos do utilizador, aumentando a sua eficácia. Embora o excerto disponível não detalhe exemplos específicos ou defesas, o artigo visa informar os leitores sobre a vigilância contra tais ameaças emergentes. À medida que os LLMs se tornam mais acessíveis, as medidas de cibersegurança devem evoluir para contrariar ataques assistidos por IA, enfatizando a consciencialização do utilizador e ferramentas de deteção robustas.