YouTube prohíbe dos canales por crear tráilers falsos de películas generados por IA

YouTube ha eliminado dos canales populares que producían tráilers de películas generados por IA engañosos, citando violaciones de sus políticas de spam y metadatos. Los canales, Screen Culture y KH Studio, acumularon más de 2 millones de suscriptores publicando tráilers falsos de películas inexistentes. Esta acción sigue a esfuerzos previos de desmonetización y resalta tensiones en torno al contenido de IA en la plataforma.

A principios de 2025, YouTube desmonetizó Screen Culture y KH Studio después de que otros creadores se quejaran del rápido ascenso de estos canales impulsado por contenido generado por IA. Estos canales con sede en India y Georgia inundaron la plataforma con tráilers de películas creíbles pero ficticios, como «GTA: San Andreas (2025) Teaser Trailer» y «Malcolm in the Middle Reboot (2025) First Trailer». A pesar de no representar proyectos reales, los videos aparecieron en los feeds de los usuarios y acumularon más de mil millones de visualizaciones en total.

Los canales tuvieron que agregar descargos de responsabilidad que etiquetaban su contenido como parodias o tráilers conceptuales para volver a unirse al Programa de Socios de YouTube. Sin embargo, pronto volvieron a omitir estos avisos en muchos videos populares, incluidos 23 tráilers generados por IA para Disney's The Fantastic Four: First Steps, algunos de los cuales superaron al tráiler oficial en las búsquedas.

El portavoz de YouTube, Jack Malon, declaró: «Tras su suspensión inicial, estos canales realizaron las correcciones necesarias para ser readmitidos en el Programa de Socios de YouTube. Sin embargo, una vez que volvieron a monetizar, reincidieron en claras violaciones de nuestras políticas de spam y metadatos engañosos, por lo que han sido eliminados de la plataforma».

Acceder ahora a cualquiera de los dos canales muestra un error: «Esta página no está disponible. Lo sentimos. Intenta buscar algo más». Las prohibiciones se alinean con las políticas más amplias de YouTube en medio del entusiasmo de Google por las herramientas de IA generativa, incluidas funciones próximas. Sin embargo, las presiones externas podrían jugar un papel; Disney se asoció recientemente con OpenAI mientras exigía a Google que eliminara usos no autorizados de su contenido, citando específicamente videos generados por IA en YouTube. Ambos canales prohibidos presentaban en gran medida propiedades de Disney, a veces mezclando fragmentos de tráilers reales.

Aunque estos fueron los infractores más grandes, canales más pequeños que producen contenido similar con divulgaciones adecuadas de fan-made siguen activos, lo que plantea preguntas sobre la aplicación consistente en el panorama en evolución de la IA.

Artículos relacionados

Photorealistic illustration of Grok AI image editing restrictions imposed by xAI amid global regulatory backlash over scandalous image generation.
Imagen generada por IA

Actualización del escándalo de imágenes de Grok AI: xAI restringe ediciones a suscriptores ante presión regulatoria global

Reportado por IA Imagen generada por IA

Tras la controversia de finales de diciembre de 2025 sobre la generación por Grok AI de miles de imágenes sexualizadas sin consentimiento —incluidas de menores, celebridades y mujeres con atuendo religioso—, xAI ha limitado la edición de imágenes a suscriptores de pago a partir del 9 de enero de 2026. Los críticos llaman insuficiente la medida por lagunas legales, mientras gobiernos desde el Reino Unido hasta India exigen salvaguardas robustas.

Tras las prohibiciones a grandes infractores como Screen Culture y KH Studio, YouTube ha desmonetizado canales que producen tráilers falsos engañosos generados por IA, según reveló una investigación de Deadline. Estudios como Warner Bros., Sony y Paramount han reclamado sorprendentemente ingresos publicitarios de algunos fakes en lugar de emitir strikes de copyright, priorizando las ganancias sobre la aplicación de la ley.

Reportado por IA

Tras la carta de cese y desista de Disney, Google ha eliminado docenas de videos generados por IA que presentan personajes de Disney de YouTube, abordando reclamaciones de infracción de derechos de autor en el alojamiento y el entrenamiento de IA. Esta acción de cumplimiento continúa la agresiva estrategia de protección de PI de Disney en medio de asociaciones selectas con IA.

Andrii Daniels, creador ucraniano de IA, produjo un vídeo viral en dos partes titulado 'Harry Potter and the Christmas Trap' que mezcla personajes de Harry Potter, Deadpool, Home Alone, John Wick y Fast & Furious. El clip, que acumuló casi 5 millones de vistas en Instagram y 17 millones en todas las plataformas, se creó durante más de 40 horas en un refugio antibombas de Kiev en medio de ataques con misiles en 2025. Daniels describe el proyecto como un tributo de fans y refugio ante la guerra en curso.

Reportado por IA

Bandcamp ha prohibido la música generada total o sustancialmente por IA en su plataforma, con el objetivo de proteger el elemento humano en la creación musical. La política, anunciada el 14 de enero de 2026, permite a los usuarios denunciar contenido sospechoso de IA para su revisión y eliminación. Esta medida contrasta con otros servicios de streaming que luchan contra la avalancha de pistas producidas por IA.

Los desarrolladores de videojuegos están utilizando cada vez más la IA para la actuación de voz, lo que provoca una fuerte oposición de actores y sindicatos preocupados por sus medios de vida y la ética. Ejemplos recientes incluyen Arc Raiders de Embark Studios y Let it Die: Inferno de Supertrick Games, donde la IA generó diálogos incidentales o voces de personajes. SAG-AFTRA y Equity están presionando por consentimiento, pago justo y regulaciones para proteger a los intérpretes.

Reportado por IA

En respuesta a la controversia en curso sobre la IA Grok —inicialmente desencadenada por un incidente el 28 de diciembre de 2025 que generó imágenes sexualizadas de menores—, X ha restringido las funciones de edición de imágenes del chatbot para evitar alteraciones no consensuadas de personas reales en atuendos reveladores como bikinis. Los cambios siguen a nuevas investigaciones de las autoridades de California, bloqueos globales y críticas por miles de imágenes dañinas producidas.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar