Hackers estão usando LLMs para criar ataques de phishing de nova geração

Especialistas em cibersegurança alertam que hackers estão aproveitando modelos de linguagem grandes (LLMs) para criar ataques de phishing sofisticados. Essas ferramentas de IA permitem a geração de páginas de phishing no local, potencialmente tornando as fraudes mais dinâmicas e difíceis de detectar. A tendência destaca ameaças em evolução na segurança digital.

Num artigo recente publicado pela TechRadar em 26 de janeiro de 2026, é destacado o uso de modelos de linguagem grandes (LLMs) por hackers para desenvolver técnicas avançadas de phishing. O artigo, intitulado 'Hackers estão usando LLMs para construir a próxima geração de ataques de phishing - eis o que deve estar atento', explora como estes sistemas de IA podem automatizar e personalizar esforços de phishing em tempo real. A descrição levanta uma questão chave: 'E se uma página de phishing fosse gerada no local?'. Isto sugere uma mudança de sites de phishing estáticos para dinâmicos, que se podem adaptar a inputs ou contextos do utilizador, aumentando a sua eficácia. Embora o excerto disponível não detalhe exemplos específicos ou defesas, o artigo visa informar os leitores sobre a vigilância contra tais ameaças emergentes. À medida que os LLMs se tornam mais acessíveis, as medidas de cibersegurança devem evoluir para contrariar ataques assistidos por IA, enfatizando a consciencialização do utilizador e ferramentas de deteção robustas.

Artigos relacionados

Illustration of a hacker using AI to swiftly build VoidLink malware targeting Linux cloud servers, featuring rapid code generation and infiltrated systems.
Imagem gerada por IA

Framework de malware VoidLink assistido por IA visa servidores Linux em nuvem

Reportado por IA Imagem gerada por IA

Pesquisadores da Check Point revelaram que o VoidLink, um malware sofisticado para Linux direcionado a servidores em nuvem, foi amplamente construído por um único desenvolvedor usando ferramentas de IA. O framework, que inclui mais de 30 plugins modulares para acesso de longo prazo ao sistema, atingiu 88.000 linhas de código em menos de uma semana, apesar de planos sugerirem um cronograma de 20-30 semanas. Esse desenvolvimento destaca o potencial da IA para acelerar a criação de malware avançado.

Especialistas em cibersegurança estão cada vez mais alarmados com a forma como a inteligência artificial está remodelando o cibercrime, com ferramentas como deepfakes, phishing com IA e modelos de linguagem grandes sombrios permitindo que até novatos executem fraudes avançadas. Esses desenvolvimentos representam riscos significativos para as empresas no próximo ano. Insights publicados pela TechRadar destacam a escala e sofisticação dessas ameaças emergentes.

Reportado por IA

In 2025, cyber threats in the Philippines stuck to traditional methods like phishing and ransomware, without new forms emerging. However, artificial intelligence amplified the volume and scale of these attacks, leading to an 'industrialization of cybercrime'. Reports from various cybersecurity firms highlight increases in speed, scale, and frequency of incidents.

Um novo estudo da Universidade Brown identifica preocupações éticas significativas com o uso de chatbots de IA como ChatGPT para aconselhamento de saúde mental. Pesquisadores descobriram que esses sistemas frequentemente violam padrões profissionais mesmo quando orientados a atuar como terapeutas. O trabalho pede melhores salvaguardas antes de implementar tais ferramentas em áreas sensíveis.

Reportado por IA

Um estudo da Universidade de Cornell revela que ferramentas de IA como ChatGPT aumentaram a produção de artigos dos pesquisadores em até 50%, beneficiando especialmente falantes não nativos de inglês. No entanto, esse aumento em manuscritos polidos está complicando revisões por pares e decisões de financiamento, pois muitos carecem de valor científico substancial. As descobertas destacam uma mudança na dinâmica da pesquisa global e pedem políticas atualizadas sobre o uso de IA na academia.

Um entusiasta de tecnologia compartilha sua experiência usando Linux para executar modelos de linguagem grandes locais, alegando que é mais simples do que no Windows. Eles destacam a capacidade de acessar uma interface semelhante ao ChatGPT diretamente no terminal. O artigo foi publicado em 10 de março de 2026.

Reportado por IA

A Linux Foundation introduziu um novo workshop com instrutor focado no deployment de modelos de linguagem pequenos em vários ambientes. Intitulado 'Deploying Small Language Models (LFWS307)', o curso oferece treinamento prático em múltiplas plataformas. As inscrições estão agora abertas para esta sessão ao vivo.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar