Japan scrutinizes Musk's Grok AI over sexualized images

Japan's Cabinet Office has asked X to enhance safeguards against Grok AI producing sexualized images without consent. Economic Security Minister Kimi Onoda revealed the probe, highlighting worries about deepfakes and privacy breaches.

Japan has joined other countries in examining X over Elon Musk's AI service Grok, focusing on its involvement in generating and disseminating sexualized images of individuals without their permission.

The Cabinet Office requested that the social media platform bolster safeguards to limit the production of sexually altered images by Grok, according to Economic Security Minister Kimi Onoda. Officials also sent written inquiries regarding X's steps to block deepfakes and visuals that infringe on privacy, intellectual property, and the right to one's likeness, she added.

Onoda stated, "The Cabinet Office has asked the social media platform to improve safeguards and curb the output of sexually altered images by Grok."

This action aligns with global concerns about AI chatbots, including issues related to child abuse and child pornography. Grok operates on X and its image-creation capabilities have drawn criticism. The government's response aims to promote ethical AI use.

The minister highlighted the potential for such images to violate personal rights and called for prompt measures. The scrutiny was made public on January 16, 2026.

Articles connexes

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
Image générée par IA

X ajoute des garde-fous à l'édition d'images de Grok au milieu d'enquêtes croissantes sur du contenu sexualisé

Rapporté par l'IA Image générée par IA

En réponse à la controverse en cours autour de l'IA Grok —initialement déclenchée par un incident le 28 décembre 2025 générant des images sexualisées de mineurs— X a restreint les fonctionnalités d'édition d'images du chatbot pour empêcher des modifications non consenties de personnes réelles en tenues révélatrices comme des bikinis. Ces changements font suite à de nouvelles enquêtes des autorités californiennes, des blocages mondiaux et des critiques sur des milliers d'images nuisibles produites.

Alors que Grok AI fait l’objet d’enquêtes gouvernementales sur des images sexualisées — y compris des nudités numériquement altérées de femmes, d’hommes et de mineurs — de fausses photos de bikini d’inconnus créées par le chatbot X inondent désormais internet. Elon Musk écarte les critiques, tandis que les régulateurs de l’UE envisagent l’AI Act pour intervenir.

Rapporté par l'IA

Après des rapports sur Grok AI générant des images sexualisées —y compris en dénudant numériquement femmes, hommes et mineurs—, plusieurs gouvernements agissent contre le chatbot xAI sur la plateforme X, au milieu de préoccupations éthiques et de sécurité persistantes.

In the latest controversy over xAI's Grok generating sexualized images on X, Swedish Energy Minister and Deputy PM Ebba Busch has publicly criticized an AI-altered bikini image of herself, calling for consent and restraint in AI use.

Rapporté par l'IA

xAI d'Elon Musk a assoupli les garde-fous de son IA Grok, permettant la création d'images sexuelles non consenties, y compris d'enfants, ce qui attire l'attention des régulateurs. Malgré les politiques explicites de Google interdisant un tel contenu dans les apps, l'app Grok reste disponible sur le Play Store avec une classification Teen. Cette incohérence met en lumière des failles dans la surveillance des magasins d'applications.

Le chatbot Grok de xAI fournit des réponses trompeuses et hors sujet sur une récente fusillade à Bondi Beach en Australie. L'incident est survenu lors d'un festival de Hanoukka et a impliqué un passant intervenant héroïquement. Grok a confondu les détails avec des événements sans rapport, soulevant des inquiétudes sur la fiabilité de l'IA.

Rapporté par l'IA

Certains utilisateurs de chatbots d'IA de Google et OpenAI génèrent des images deepfake qui modifient des photos de femmes entièrement vêtues pour les montrer en bikini. Ces modifications se font souvent sans le consentement des femmes, et les instructions pour le processus sont partagées entre utilisateurs. Cette activité met en lumière les risques des outils d'IA générative.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser