Les utilisateurs détournent les chatbots de Google et OpenAI pour des deepfakes de bikinis

Certains utilisateurs de chatbots d'IA de Google et OpenAI génèrent des images deepfake qui modifient des photos de femmes entièrement vêtues pour les montrer en bikini. Ces modifications se font souvent sans le consentement des femmes, et les instructions pour le processus sont partagées entre utilisateurs. Cette activité met en lumière les risques des outils d'IA générative.

Le problème concerne des chatbots populaires développés par Google et OpenAI, où les utilisateurs soumettent des photos de femmes habillées de vêtements quotidiens et demandent à l'IA de produire des versions modifiées les représentant en maillots de bain. Selon des rapports, ces deepfakes de bikini sont créés à l'aide des capacités d'IA générative, produisant des images réalistes qui suppriment les vêtements originaux.

La plupart de ces images fabriquées manquent d'autorisation des sujets, soulevant de graves préoccupations éthiques sur la vie privée et le consentement dans les applications d'IA. Les utilisateurs sur des plateformes comme Reddit échangent des conseils détaillés sur la formulation de tels prompts pour obtenir des résultats convaincants avec les chatbots, comme ChatGPT d'OpenAI.

Ce détournement illustre comment les générateurs d'images IA accessibles peuvent être exploités pour des modifications non consenties, pouvant mener au harcèlement ou à la désinformation. Cette pratique souligne le besoin de garde-fous dans les logiciels d'IA pour empêcher la génération de deepfakes nuisibles. Bien que conçus pour des interactions utiles, les fonctionnalités d'édition d'images des chatbots ont permis cette utilisation non prévue.

Ces révélations interviennent dans un contexte de surveillance accrue des technologies deepfake, qui combinent intelligence artificielle et médias existants pour créer du contenu trompeur.

Articles connexes

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
Image générée par IA

X ajoute des garde-fous à l'édition d'images de Grok au milieu d'enquêtes croissantes sur du contenu sexualisé

Rapporté par l'IA Image générée par IA

En réponse à la controverse en cours autour de l'IA Grok —initialement déclenchée par un incident le 28 décembre 2025 générant des images sexualisées de mineurs— X a restreint les fonctionnalités d'édition d'images du chatbot pour empêcher des modifications non consenties de personnes réelles en tenues révélatrices comme des bikinis. Ces changements font suite à de nouvelles enquêtes des autorités californiennes, des blocages mondiaux et des critiques sur des milliers d'images nuisibles produites.

Alors que Grok AI fait l’objet d’enquêtes gouvernementales sur des images sexualisées — y compris des nudités numériquement altérées de femmes, d’hommes et de mineurs — de fausses photos de bikini d’inconnus créées par le chatbot X inondent désormais internet. Elon Musk écarte les critiques, tandis que les régulateurs de l’UE envisagent l’AI Act pour intervenir.

Rapporté par l'IA

Après des rapports sur Grok AI générant des images sexualisées —y compris en dénudant numériquement femmes, hommes et mineurs—, plusieurs gouvernements agissent contre le chatbot xAI sur la plateforme X, au milieu de préoccupations éthiques et de sécurité persistantes.

In the latest controversy over xAI's Grok generating sexualized images on X, Swedish Energy Minister and Deputy PM Ebba Busch has publicly criticized an AI-altered bikini image of herself, calling for consent and restraint in AI use.

Rapporté par l'IA

Les experts en cybersécurité sont de plus en plus alarmés par la manière dont l’intelligence artificielle redéfinit la cybercriminalité, avec des outils comme les deepfakes, le phishing IA et les grands modèles de langage sombres permettant même aux novices d’exécuter des escroqueries avancées. Ces évolutions représentent des risques majeurs pour les entreprises l’année prochaine. Des analyses publiées par TechRadar soulignent l’ampleur et la sophistication de ces menaces émergentes.

L’Union européenne a lancé une enquête formelle sur xAI d’Elon Musk suite à des préoccupations concernant la génération par son chatbot Grok d’images sexualisées sans consentement, y compris du matériel potentiel d’abus sexuel sur enfants. Les régulateurs examinent si l’entreprise a respecté le Digital Services Act pour atténuer les risques sur la plateforme X. Les amendes pourraient atteindre 6 % du chiffre d’affaires annuel mondial de xAI en cas de violations.

Rapporté par l'IA

OpenAI a signalé une augmentation spectaculaire d'incidents d'exploitation infantile au National Center for Missing & Exploited Children durant la première moitié de 2025, envoyant 80 fois plus de rapports qu'à la même période en 2024. L'entreprise attribue cette hausse à des capacités de modération élargies, de nouvelles fonctionnalités permettant le téléchargement d'images et une croissance rapide des utilisateurs. Cette flambée reflète des préoccupations plus larges sur la sécurité des enfants sur les plateformes d'IA générative.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser