Hackers norte-coreanos usam vídeo de IA para espalhar malware

Um grupo de hackers norte-coreano conhecido como UNC1069 empregou vídeos gerados por IA para entregar malware direcionado a sistemas macOS e Windows. Essa tática destaca métodos em evolução nas ameaças cibernéticas. O desenvolvimento foi relatado pela TechRadar em 11 de fevereiro de 2026.

Hackers norte-coreanos, operando sob o alias UNC1069, adotaram uma abordagem inovadora usando vídeos gerados por IA para distribuir malware compatível com os sistemas operacionais macOS e Windows. De acordo com a TechRadar, esse método demonstra a criatividade crescente do grupo em evadir detecção e infectar dispositivos. A técnica envolve embutir cargas maliciosas dentro de conteúdo de vídeo aparentemente inofensivo criado por inteligência artificial. Embora detalhes específicos sobre a funcionalidade do malware ou canais de distribuição permaneçam limitados nos relatórios disponíveis, o uso de IA ressalta uma sofisticação crescente nas operações cibernéticas patrocinadas pelo Estado atribuídas à Coreia do Norte. A UNC1069, anteriormente ligada a várias atividades cibernéticas, continua a representar riscos para usuários em plataformas principais. A cobertura da TechRadar enfatiza a necessidade de maior vigilância contra tais táticas enganosas na segurança digital. Nenhum incidente adicional ou detalhes de vítimas foram divulgados no relatório inicial publicado em 11 de fevereiro de 2026.

Artigos relacionados

Illustration of a hacker using AI to swiftly build VoidLink malware targeting Linux cloud servers, featuring rapid code generation and infiltrated systems.
Imagem gerada por IA

Framework de malware VoidLink assistido por IA visa servidores Linux em nuvem

Reportado por IA Imagem gerada por IA

Pesquisadores da Check Point revelaram que o VoidLink, um malware sofisticado para Linux direcionado a servidores em nuvem, foi amplamente construído por um único desenvolvedor usando ferramentas de IA. O framework, que inclui mais de 30 plugins modulares para acesso de longo prazo ao sistema, atingiu 88.000 linhas de código em menos de uma semana, apesar de planos sugerirem um cronograma de 20-30 semanas. Esse desenvolvimento destaca o potencial da IA para acelerar a criação de malware avançado.

Especialistas em cibersegurança estão cada vez mais alarmados com a forma como a inteligência artificial está remodelando o cibercrime, com ferramentas como deepfakes, phishing com IA e modelos de linguagem grandes sombrios permitindo que até novatos executem fraudes avançadas. Esses desenvolvimentos representam riscos significativos para as empresas no próximo ano. Insights publicados pela TechRadar destacam a escala e sofisticação dessas ameaças emergentes.

Reportado por IA

A ferramenta de inteligência artificial da IBM, conhecida como Bob, foi considerada suscetível a manipulações que podem levar ao download e execução de malware. Pesquisadores destacam sua vulnerabilidade a ataques de injeção indireta de prompts. As descobertas foram relatadas pela TechRadar em 9 de janeiro de 2026.

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

Reportado por IA

Golpistas estão enviando e-mails que parecem genuínos para usuários do OpenAI, projetados para manipulá-los a revelar dados críticos rapidamente. Esses e-mails são seguidos por chamadas vishing que intensificam a pressão sobre as vítimas para divulgar detalhes da conta. A campanha destaca riscos contínuos na segurança de plataformas de IA.

A IA Grok de Elon Musk gerou e compartilhou pelo menos 1,8 milhão de imagens sexualizadas sem consentimento em nove dias, gerando preocupações sobre tecnologias generativas sem controle. Este incidente foi um tema central em uma cúpula sobre integridade informacional em Stellenbosch, onde especialistas discutiram danos mais amplos no espaço digital.

Reportado por IA

Um escaneamento recente de milhões de apps Android revelou vazamentos de dados significativos de software de IA, superando expectativas em escala. Segredos hardcoded persistem na maioria dos aplicativos de IA para Android hoje. As descobertas destacam riscos contínuos de privacidade na tecnologia móvel.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar