YouTube ha comenzado a implementar su herramienta de detección de similitud para ayudar a los creadores a identificar y reportar videos generados por IA que usan sus rostros sin permiso. La función beta, que ahora se expande más allá de los probadores iniciales, requiere verificación de identidad pero no ofrece garantías de eliminación. Este movimiento aborda las crecientes preocupaciones sobre la proliferación de contenido de IA en la plataforma.
Google, que impulsa YouTube, anunció a principios de este año herramientas para marcar contenido de IA que roba rostros. A partir del 21 de octubre de 2025, la compañía ha comenzado a notificar al primer grupo de creadores elegibles sobre el acceso al sistema de detección de similitud, similar a su mecanismo de detección de derechos de autor.
La función está actualmente en beta y en pruebas limitadas, apareciendo en el menú 'Detección de contenido' de YouTube Studio para usuarios seleccionados. La configuración asume un solo anfitrión por canal y requiere verificación mediante una foto de identificación gubernamental y un video del rostro. Una vez inscrito, el algoritmo escanea otros canales en busca de videos que coincidan con el rostro del usuario, aunque puede generar falsos positivos, como clips de uso justo.
Los creadores que detecten posibles falsificaciones de IA pueden enviar informes con detalles. Si el contenido copia de su canal sin uso justo, se recomienda una solicitud separada de eliminación por derechos de autor. Sin embargo, YouTube no garantiza la eliminación. Los revisores consideran factores como parodias etiquetadas como IA o estilos no realistas, que pueden permanecer en línea, frente a videos realistas que muestran endosos o actividades ilegales, que probablemente serán eliminados.
Este lanzamiento se produce en medio de capacidades crecientes de video de IA. Google recientemente presentó su modelo Veo 3.1, que soporta formatos retrato y paisaje, con planes para integrarlo en YouTube. Los modelos Sora de la rival OpenAI han popularizado videos de IA, a menudo con figuras públicas en escenarios fabricados, lo que podría aumentar las quejas por similitud similares a las bajas de DMCA.