Usuários fazem mau uso de chatbots do Google e OpenAI para deepfakes de biquíni

Alguns usuários de chatbots de IA do Google e OpenAI estão gerando imagens deepfake que alteram fotos de mulheres totalmente vestidas para mostrá-las de biquíni. Essas modificações ocorrem frequentemente sem o consentimento das mulheres, e instruções para o processo são compartilhadas entre usuários. A atividade destaca riscos em ferramentas de IA generativa.

O problema envolve chatbots populares desenvolvidos pelo Google e OpenAI, onde usuários inserem fotos de mulheres vestidas com roupas do dia a dia e pedem à IA para produzir versões alteradas retratando-as em trajes de banho. De acordo com relatos, esses deepfakes de biquíni são criados usando capacidades de IA generativa, resultando em imagens realistas que removem a roupa original.

A maioria dessas imagens fabricadas não tem permissão dos sujeitos, levantando sérias preocupações éticas sobre privacidade e consentimento em aplicações de IA. Usuários em plataformas como Reddit trocam orientações detalhadas sobre como criar tais prompts para obter resultados convincentes com os chatbots, como o ChatGPT da OpenAI.

Esse mau uso demonstra como geradores de imagens de IA acessíveis podem ser explorados para alterações não consensuais, potencialmente levando a assédio ou desinformação. A prática sublinha a necessidade de salvaguardas em softwares de IA para prevenir a geração de deepfakes prejudiciais. Embora os chatbots sejam projetados para interações úteis, seus recursos de edição de imagens permitiram essa aplicação não intencional.

As revelações surgem em meio a um escrutínio crescente das tecnologias deepfake, que combinam inteligência artificial com mídias existentes para criar conteúdo enganoso.

Artigos relacionados

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
Imagem gerada por IA

X adiciona salvaguardas à edição de imagens do Grok em meio a investigações crescentes sobre conteúdo sexualizado

Reportado por IA Imagem gerada por IA

Em resposta à controvérsia em curso do Grok AI —inicialmente desencadeada por um incidente em 28 de dezembro de 2025 que gerou imagens sexualizadas de menores— o X restringiu os recursos de edição de imagens do chatbot para impedir alterações não consensuais de pessoas reais em trajes reveladores como biquínis. As mudanças seguem novas investigações das autoridades da Califórnia, bloqueios globais e críticas sobre milhares de imagens prejudiciais produzidas.

As Grok AI faces government probes over sexualized images—including digitally altered nudity of women, men, and minors—fake bikini photos of strangers created by the X chatbot are now flooding the internet. Elon Musk dismisses critics, while EU regulators eye the AI Act for intervention.

Reportado por IA

Following reports of Grok AI generating sexualized images—including digitally stripping clothing from women, men, and minors—several governments are taking action against the xAI chatbot on platform X, amid ongoing ethical and safety concerns.

In the latest controversy over xAI's Grok generating sexualized images on X, Swedish Energy Minister and Deputy PM Ebba Busch has publicly criticized an AI-altered bikini image of herself, calling for consent and restraint in AI use.

Reportado por IA

Especialistas em cibersegurança estão cada vez mais alarmados com a forma como a inteligência artificial está remodelando o cibercrime, com ferramentas como deepfakes, phishing com IA e modelos de linguagem grandes sombrios permitindo que até novatos executem fraudes avançadas. Esses desenvolvimentos representam riscos significativos para as empresas no próximo ano. Insights publicados pela TechRadar destacam a escala e sofisticação dessas ameaças emergentes.

A União Europeia lançou uma investigação formal à xAI de Elon Musk após preocupações de que o seu chatbot Grok gerou imagens sexualizadas sem consentimento, incluindo material potencial de abuso sexual infantil. Os reguladores estão a examinar se a empresa cumpriu a Lei dos Serviços Digitais na mitigação de riscos na plataforma X. As multas podem atingir 6 por cento do volume de negócios anual global da xAI se forem encontradas violações.

Reportado por IA

A OpenAI relatou um aumento dramático em incidentes de exploração infantil ao National Center for Missing & Exploited Children durante a primeira metade de 2025, enviando 80 vezes mais relatórios do que no mesmo período de 2024. A empresa atribuiu o aumento a capacidades de moderação expandidas, novas funcionalidades que permitem o upload de imagens e crescimento rápido de utilizadores. Este pico reflete preocupações mais amplas sobre a segurança infantil em plataformas de IA generativa.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar