YouTube har börjat rulla ut sitt verktyg för likhetsdetektering för att hjälpa skapare att identifiera och rapportera AI-genererade videor som använder deras ansikten utan tillstånd. Betafunktionen, som nu utvidgas bortom initiala testare, kräver identitetsverifiering men erbjuder inga garantier för borttagning. Detta drag adresserar växande oro över AI-innehåll som sprids på plattformen.
Google, som driver YouTube, tillkännagav tidigare i år verktyg för att flagga AI-innehåll som stjäl ansikten. Från och med 21 oktober 2025 har företaget börjat meddela den första gruppen av kvalificerade skapare om tillgång till likhetsdetekteringssystemet, liknande dess upphovsrättsdetekteringsmekanism.
Funktionen är för närvarande i beta och begränsad testning, och visas i menyn 'Innehållsdetektering' i YouTube Studio för utvalda användare. Inställningen förutsätter en enda värd per kanal och kräver verifiering via ett foto av ett officiellt ID och en ansiktsvideo. När man är registrerad skannar algoritmen andra kanaler efter videor som matchar användarens ansikte, även om det kan ge falska positiva resultat, såsom klipp med rättvis användning.
Skapare som upptäcker potentiella AI-förfalskningar kan skicka rapporter med detaljer. Om innehållet kopierar från deras kanal utan rättvis användning rekommenderas en separat förfrågan om upphovsrättsborttagning. YouTube garanterar dock inte borttagning. Granskare beaktar faktorer som parodi märkta som AI eller orealistiska stilar, som kan förbli online, jämfört med realistiska videor som visar godkännanden eller olagliga aktiviteter, som troligen kommer att tas bort.
Denna utrullning kommer mitt i stigande AI-videoförmågor. Google avslöjade nyligen sin Veo 3.1-modell, som stöder porträtt- och landskapsformat, med planer på att integrera den i YouTube. Rivalen OpenAIs Sora-modeller har populariserat AI-videor, ofta med offentliga figurer i fabricerade scenarier, vilket potentiellt ökar likhetsklagomål liknande DMCA-borttagningar.