Google lance un outil pour supprimer des images explicites non consenties des résultats de recherche

Google a lancé une nouvelle fonctionnalité permettant aux utilisateurs de demander la suppression d'images explicites non consenties de ses résultats de Recherche. L'outil propose des options pour signaler les deepfakes et autres violations de la vie privée, avec un suivi disponible via le hub Results about you de l'entreprise. Cette mise à jour intervient alors que Google arrête son service de surveillance du dark web.

La dernière mise à jour de Google sur sa plateforme de Recherche vise à répondre aux préoccupations en matière de vie privée en permettant aux utilisateurs de demander rapidement la suppression de contenus nuisibles. Lors de la découverte d'une image indésirable dans les résultats de recherche, les individus peuvent cliquer sur les trois points à côté et sélectionner « supprimer le résultat ». De là, les options incluent signaler que « Cela montre une image sexuelle de moi », ou que l'image représente une personne de moins de 18 ans ou contient des informations personnelles. Pour les images sexuelles, les utilisateurs sont invités à préciser s'il s'agit d'une photo réelle ou d'un deepfake. L'outil permet également de soumettre plusieurs images en une seule demande.  Après soumission, Google redirige immédiatement les utilisateurs vers des ressources de soutien émotionnel et juridique. Une fonctionnalité opt-in permet de filtrer des résultats similaires dans les recherches futures, bien que les images non signalées restent visibles pour les autres. Cette fonctionnalité sera déployée dans la plupart des pays dans les prochains jours, avec des mises à jour du hub Results about you arrivant bientôt pour les utilisateurs américains.  Pour accéder au hub, les utilisateurs doivent fournir des détails de contact personnels et des numéros d'identification gouvernementaux. Le hub élargi surveille désormais les données sensibles telles que les numéros de sécurité sociale, les permis de conduire et les passeports dans les résultats de recherche, notifiant les utilisateurs si de telles informations apparaissent et les guidant dans les étapes de suppression. Cela s'appuie sur le suivi existant des informations personnelles de Google mais va plus loin avec des alertes proactives.  Les changements coïncident avec l'arrêt des rapports dark web de Google, qui informaient auparavant les utilisateurs de l'apparition de leurs données en ligne, souvent issues de violations. L'entreprise a noté que ces alertes ne permettaient pas d'aide pour les actions suivantes, un vide que ces nouveaux outils cherchent à combler en mettant l'accent sur des options pratiques de suppression et de soutien.

Articles connexes

Illustration of Google Search AI Mode with Personal Intelligence feature integrating Gmail and Photos for personalized results.
Image générée par IA

Google ajoute une intelligence personnelle au mode IA dans la recherche

Rapporté par l'IA Image générée par IA

Google a lancé une fonctionnalité expérimentale « Personal Intelligence » pour son Mode IA dans Recherche, permettant aux utilisateurs de connecter Gmail et Google Photos pour des réponses plus adaptées. Cet outil opt-in, propulsé par Gemini 3, vise à rendre les résultats de recherche plus pertinents en s'appuyant sur des données personnelles sans entraîner les modèles sur des boîtes de réception complètes. Il est déployé en premier pour les abonnés payants aux États-Unis.

Google va arrêter son outil gratuit de surveillance du dark web début de l’année prochaine, mettant fin aux notifications sur les fuites de données personnelles. Le service, qui alerte les utilisateurs sur l’apparition de leur nom, e-mail ou numéro de téléphone sur le dark web, cessera de surveiller les nouveaux résultats le 15 janvier 2026. L’accès aux rapports existants sera supprimé le 16 février 2026.

Rapporté par l'IA

Suite à un scandale impliquant Grok de xAI générant des millions d’images abusives, les concurrents OpenAI et Google ont mis en place de nouvelles mesures pour prévenir des abus similaires. L’incident a mis en lumière les vulnérabilités des outils d’images IA, provoquant des réponses rapides de l’industrie. Ces étapes visent à protéger les utilisateurs des images intimes non consenties.

Le chatbot Grok de xAI a produit environ 3 millions d’images sexualisées, dont 23 000 d’enfants, sur 11 jours après la promotion par Elon Musk de sa fonctionnalité de déshabillage. Les victimes peinent à faire supprimer ce contenu non consenti, comme l’illustre le procès d’Ashley St. Clair contre xAI. Des restrictions ont été mises en place sur X, mais persistent dans l’application autonome de Grok.

Rapporté par l'IA

L'IA Grok d'Elon Musk a généré et partagé au moins 1,8 million d'images sexualisées sans consentement pendant neuf jours, suscitant des inquiétudes sur les technologies génératives non contrôlées. Cet incident a été un sujet clé lors d'un sommet sur l'intégrité de l'information à Stellenbosch, où des experts ont discuté des préjudices plus larges dans l'espace numérique.

Google a amélioré sa fonctionnalité d'essayage virtuel alimentée par l'IA, permettant aux utilisateurs de générer un avatar en corps entier à partir d'un simple selfie. Cette mise à jour supprime le besoin de photos en corps entier et prend en charge les tailles de XS à 4XL+. Cet outil est désormais disponible aux États-Unis, s'appuyant sur la version originale lancée en mai.

Rapporté par l'IA

Google a commencé à déployer une fonctionnalité expérimentale appelée Me Meme dans son application Photos, permettant aux utilisateurs de créer des mèmes personnalisés à l'aide de leurs photos. Alimentée par Google Gemini, l'outil recrée des modèles de mèmes avec des images des utilisateurs mais est initialement limitée aux utilisateurs Android aux États-Unis. Elle s'étendra aux appareils iOS dans les semaines à venir.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser