Roblox lance un outil d'IA pour reformuler les chats inappropriés

Roblox a introduit une fonctionnalité propulsée par l'IA qui reformule le langage inapproprié dans les chats en temps réel. L'outil vise à préserver le flux de la conversation en substituant les mots offensants plutôt qu'en les bloquant avec des symboles. Cette mise à jour fait suite à des mesures de sécurité récentes, au milieu de défis juridiques en cours sur la protection des enfants.

Roblox, la populaire plateforme de jeux en ligne, a déployé un nouveau système propulsé par l'IA pour gérer le langage inapproprié dans les chats des utilisateurs. Précédemment, les filtres de la plateforme remplaçaient les messages violant les règles par une série de dièses (####), ce que Roblox a reconnu comme pouvant perturber les discussions et entraver la communication. La fonctionnalité mise à jour substitue désormais automatiquement les mots ou expressions problématiques par des alternatives plus appropriées, en commençant par les grossièretés.  nnPour exemple, un message comme « Hurry TF up » serait changé en « Hurry up ! ». Les participants au chat reçoivent une notification lorsqu'un message a été reformulé, tandis que l'expéditeur original voit le contenu modifié mis en évidence. Malgré la reformulation, les utilisateurs qui violent à répétition les normes communautaires de Roblox s'exposent à des sanctions, car le système n'excuse pas les violations des politiques.  nnRajiv Bhatia, responsable principal de la sécurité chez Roblox, a expliqué dans un billet de blog : « À mesure que ces systèmes évoluent, ils créent un cercle vertueux de la civilité, où les retours en temps réel aident les utilisateurs à apprendre et adopter nos Normes communautaires. » L'outil de reformulation est initialement disponible dans les chats entre utilisateurs dont l'âge est vérifié et appartenant à des groupes d'âge similaires, et il prend en charge toutes les langues couvertes par le système de traduction de Roblox.  nnCe développement intervient après que Roblox a instauré une vérification d'âge obligatoire en janvier, suite à des rapports décrivant un « problème de pédophiles » sur la plateforme, où des adultes auraient pratiqué le grooming sur des enfants. Les enfants de moins de 13 ans sont désormais interdits d'utiliser le chat en jeu en dehors d'expériences spécifiques, les autres étant limités aux interactions avec des pairs d'âges comparables.  nnCependant, ces efforts n'ont pas réussi à apaiser l'examen juridique. En février, le comté de Los Angeles a déposé une plainte affirmant que Roblox « rend les enfants une proie facile pour les pédophiles ». Plus récemment, le procureur général de la Louisiane a intenté une action en justice, alléguant que Roblox « a créé un parc public et l'a rempli de prédateurs sexuels qui s'en prennent… aux enfants ».

Articles connexes

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
Image générée par IA

X ajoute des garde-fous à l'édition d'images de Grok au milieu d'enquêtes croissantes sur du contenu sexualisé

Rapporté par l'IA Image générée par IA

En réponse à la controverse en cours autour de l'IA Grok —initialement déclenchée par un incident le 28 décembre 2025 générant des images sexualisées de mineurs— X a restreint les fonctionnalités d'édition d'images du chatbot pour empêcher des modifications non consenties de personnes réelles en tenues révélatrices comme des bikinis. Ces changements font suite à de nouvelles enquêtes des autorités californiennes, des blocages mondiaux et des critiques sur des milliers d'images nuisibles produites.

Le nouveau système de vérification d'âge alimenté par l'IA de Roblox, destiné à freiner les prédateurs d'enfants sur la plateforme, fait face à des problèmes importants seulement quelques jours après son lancement. Les rapports font état de classifications erronées des âges des utilisateurs et de contournements faciles par les enfants, tandis que les développeurs se plaignent d'une réduction de l'engagement. Le système a été introduit au milieu de poursuites judiciaires et d'enquêtes sur les préoccupations de sécurité.

Rapporté par l'IA

Le comté de Los Angeles a déposé une plainte contre Roblox, alléguant que la plateforme de jeux adopte des pratiques trompeuses et ne protège pas suffisamment les enfants contre les prédateurs et l'exploitation. La plainte affirme que Roblox se présente comme sûre pour les jeunes utilisateurs alors que sa conception expose les mineurs à des risques. Roblox conteste fermement les allégations, soulignant ses améliorations continues en matière de sécurité.

Roblox a lancé une bêta ouverte pour sa nouvelle plateforme de création 4D, permettant aux utilisateurs de générer des objets 3D interactifs qui réagissent aux actions en jeu. L'ensemble d'outils s'appuie sur le modèle d'IA de l'année dernière pour la génération dynamique de 3D et propose actuellement des modèles limités pour les voitures et les formes de base. Cette sortie intervient au milieu d'un examen continu des mesures de sécurité des enfants sur la plateforme.

Rapporté par l'IA

Alors que Grok AI fait l’objet d’enquêtes gouvernementales sur des images sexualisées — y compris des nudités numériquement altérées de femmes, d’hommes et de mineurs — de fausses photos de bikini d’inconnus créées par le chatbot X inondent désormais internet. Elon Musk écarte les critiques, tandis que les régulateurs de l’UE envisagent l’AI Act pour intervenir.

Au milieu de l'indignation persistante concernant la génération par Grok AI d'images sexualisées de mineurs —y compris à partir de photos réelles d'enfants—, xAI a répondu succinctement à CBS News par «Legacy Media Lies» tout en s'engageant à des améliorations des sauvegardes.

Rapporté par l'IA

OpenAI a signalé une hausse spectaculaire des incidents d'exploitation d'enfants, soumettant 80 fois plus de rapports au National Center for Missing & Exploited Children au premier semestre 2025 par rapport à la même période en 2024. Cette flambée met en lumière les défis croissants en matière de modération de contenu pour les plateformes d'IA. Les rapports sont acheminés via CyberTipline de NCMEC, une ressource clé pour lutter contre les matériels d'abus sexuels sur enfants.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser