Google améliore son outil d'essayage virtuel IA pour selfies

Google a amélioré sa fonctionnalité d'essayage virtuel alimentée par l'IA, permettant aux utilisateurs de générer un avatar en corps entier à partir d'un simple selfie. Cette mise à jour supprime le besoin de photos en corps entier et prend en charge les tailles de XS à 4XL+. Cet outil est désormais disponible aux États-Unis, s'appuyant sur la version originale lancée en mai.

La dernière amélioration de Google pour sa technologie d'essayage virtuel simplifie les achats en ligne en utilisant l'intelligence artificielle pour créer des visualisations personnalisées de vêtements. Auparavant, la fonctionnalité nécessitait une photographie en corps entier pour simuler les tenues. La nouvelle version, révélée jeudi, permet aux utilisateurs de télécharger un selfie — même s'il ne montre que la tête et les épaules ou une pose assise — et de générer une figure numérique complète.

Les utilisateurs sélectionnent leur taille corporelle préférée, allant de XS à 4XL+, et le système produit une image en corps entier. Cet avatar est propulsé par Nano Banana, qui est le modèle d'image Gemini 2.5 Flash de Google. Une fois créé, les acheteurs peuvent explorer divers vêtements sur le modèle virtuel, les aidant à visualiser les ajustements sans essayages physiques.

Cette mise à jour élargit l'accessibilité de l'outil, dévoilé initialement en mai lors de la conférence des développeurs I/O de Google. Cette première version permettait déjà des essais virtuels de vêtements, mais exigeait une photo debout en entier. L'approche affinée accepte des images plus décontractées, facilitant aux personnes aux États-Unis d'expérimenter des styles comme des robes formelles ou des pantalons en cuir.

Ce développement reflète les efforts continus pour intégrer l'IA dans le commerce électronique, réduisant les obstacles aux décisions d'achat éclairées. Bien que la fonctionnalité reste limitée aux États-Unis pour l'instant, elle conserve l'option de téléchargement de photos en corps entier pour ceux qui le préfèrent. En rationalisant le processus, Google vise à améliorer le confort des utilisateurs dans les expériences de vente au détail numérique.

Articles connexes

Illustration of Google's Nano Banana Pro AI image model launch, featuring a smartphone with AI-generated banana images in the Gemini app, surrounded by users and global elements.
Image générée par IA

Google lance Nano Banana Pro, modèle d'IA pour la génération d'images

Rapporté par l'IA Image générée par IA

Google a introduit Nano Banana Pro, un modèle amélioré de génération d'images par IA alimenté par Gemini 3 Pro, offrant une meilleure précision et des capacités d'édition. L'outil est désormais disponible dans le monde entier via l'application Gemini, bien que avec des limites d'utilisation pour les utilisateurs gratuits. Il inclut également des fonctionnalités améliorées pour détecter le contenu généré par IA.

Google a lancé Nano Banana 2, un modèle mis à jour de génération d’images par IA qui combine la précision de sa version Pro avec des vitesses de traitement plus rapides. Alimenté par Gemini 3.1 Flash Image, l’outil devient la nouvelle option par défaut sur les plateformes de Google, y compris l’application Gemini et les fonctionnalités de recherche. Il vise à fournir des images plus précises et réalistes tout en élargissant les capacités créatives.

Rapporté par l'IA

Google a lancé une fonctionnalité expérimentale « Personal Intelligence » pour son Mode IA dans Recherche, permettant aux utilisateurs de connecter Gmail et Google Photos pour des réponses plus adaptées. Cet outil opt-in, propulsé par Gemini 3, vise à rendre les résultats de recherche plus pertinents en s'appuyant sur des données personnelles sans entraîner les modèles sur des boîtes de réception complètes. Il est déployé en premier pour les abonnés payants aux États-Unis.

Google a lancé Project Genie, un outil basé sur son modèle d'IA Genie 3 qui permet aux utilisateurs de générer et d'explorer des environnements virtuels interactifs à partir de prompts textuels ou d'images. Disponible uniquement pour les abonnés de son plan premium AI Ultra, le système marque le premier accès public à ce modèle de monde avancé en dehors des tests internes. Il propose des modes comme l'esquisse de mondes et le remix, bien que limité à des sessions courtes de 60 secondes.

Rapporté par l'IA

Google déploie la fonctionnalité Find the Look, intégrée à son outil Circle to Search, sur les appareils de la série Pixel 10 via le Pixel Drop de mars. Lancée initialement sur les Samsung Galaxy S26, cette recherche visuelle propulsée par l’IA identifie désormais des tenues complètes pour les achats. La mise à jour inclut également des améliorations plus larges pour les appareils Android.

Snapchat a présenté AI Clips, une nouvelle fonctionnalité qui transforme une simple photo en une vidéo de 5 secondes générée par IA. Disponible pour les abonnés Lens Plus, elle permet aux utilisateurs de se projeter dans divers scénarios générés par IA créés par des développeurs. L'outil a été lancé via un communiqué de presse mardi.

Rapporté par l'IA

Deux anciens dirigeants de Google ont présenté Silvr, une application conçue pour permettre des achats instantanés depuis les écrans de télévision grâce à l’IA et à la vision par ordinateur. La startup, soutenue par des investisseurs de grands groupes médiatiques, se lance aujourd’hui au milieu d’un intérêt croissant pour les technologies de recherche visuelle. Silvr vise à surmonter les défis passés pour rendre le contenu de divertissement directement achetable.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser