Google har förbättrat sin AI-drivna funktion för virtuell provning, vilket gör det möjligt för användare att generera en helkroppsavatar från en enkel selfie. Uppdateringen tar bort behovet av helkroppsfoton och stöder storlekar från XS till 4XL+. Verktyget är nu tillgängligt i USA, byggt på den ursprungliga versionen som lanserades i maj.
Googles senaste förbättring av den virtuella provningstekniken förenklar onlinehandel genom att använda artificiell intelligens för att skapa personliga visualiseringar av kläder. Tidigare krävde funktionen ett helkroppsfoto för att simulera outfit. Den nya versionen, som avslöjades på torsdagen, gör det möjligt för användare att ladda upp en selfie – även om den bara visar huvud och axlar eller en sittande pose – och generera en komplett digital figur.
Användare väljer sin föredragna kroppsstorlek, från XS till 4XL+, och systemet producerar en helkroppsbild. Denna avatar drivs av Nano Banana, som är Googles Gemini 2.5 Flash Image-modell. När den är skapad kan shoppare utforska olika plagg på den virtuella modellen, vilket hjälper dem att visualisera passformen utan fysiska provningar.
Uppgraderingen utökar tillgängligheten för verktyget, som ursprungligen presenterades i maj under Googles I/O-utvecklarkonferens. Den initiala releasen tillät redan virtuella klädprovningar, men krävde ett stående helkroppsfoto. Den förfinade metoden hanterar mer vardagliga bilder, vilket gör det enklare för personer i USA att experimentera med stilar som formella klänningar eller läderbyxor.
Denna utveckling speglar pågående ansträngningar att integrera AI i e-handel, vilket minskar hinder för välgrundade köpbeslut. Även om funktionen för närvarande är USA-exklusiv behåller den alternativet att ladda upp helkroppsfoton för de som föredrar det. Genom att effektivisera processen syftar Google till att förbättra användarvänligheten i digitala detaljhandelsexperier.