BMG demanda a Anthropic por infracción de derechos de autor en la formación Claude

La compañía de derechos musicales BMG ha presentado una demanda contra la empresa de inteligencia artificial Anthropic, alegando el uso no autorizado de letras de canciones para entrenar a su chatbot Claude. Según la demanda, la infracción se remonta a la fundación de Anthropic y afecta a obras de artistas como Justin Bieber y Bruno Mars. BMG solicita una indemnización de hasta 150.000 dólares por obra infringida.

BMG presentó la demanda el 17 de marzo de 2026 ante un tribunal federal de California, acusando a Anthropic de infringir los derechos de autor al utilizar letras de composiciones gestionadas por BMG para entrenar a Claude. La demanda de 47 páginas detalla cómo Anthropic supuestamente extrajo texto de sitios web públicos, bibliotecas piratas ilegales, MusicMatch, LyricFind y libros de partituras desde su fundación en 2021 por antiguos empleados de OpenAI. Algunos ejemplos concretos son Claude, que extrajo partes significativas de las letras de "Uptown Funk" de Bruno Mars, "You Can't Always Get What You Want" de los Rolling Stones, "What A Wonderful World" de Louis Armstrong, "7 Rings" de Ariana Grande y "Kryptonite" de 3 Doors Down. Según la demanda, incluso las peticiones de letras originales generan derivados o mash-ups basados en estas obras. Una lista no exhaustiva en la demanda identifica 467 canciones supuestamente infringidas, lo que podría suponer al menos 70 millones de dólares en daños y perjuicios según el máximo legal de 150.000 dólares por obra. BMG afirma que envió una carta de cese y desistimiento en diciembre de 2025, a la que Anthropic no respondió, y que nunca autorizó el uso. Anthropic ha violado flagrantemente las leyes de derechos de autor y ha causado un daño directo a BMG y a los compositores que representa con orgullo", dice la demanda. Generaciones de inventores han sacado al mercado nuevos productos revolucionarios respetando la legislación sobre derechos de autor. El rápido desarrollo de la nueva tecnología de Anthropic no es excusa para su atroz violación de la ley". Un portavoz de BMG añadió: 'Proteger los derechos de quienes confían el trabajo de su vida a BMG es esencial... la protección de los derechos de autor y una remuneración justa no son negociables.' En la demanda también se alega responsabilidad secundaria por las infracciones de los usuarios y se solicita la divulgación de los datos de formación de Anthropic. Esta demanda sigue a otras similares interpuestas por Universal Music Publishing Group, Concord Music y ABKCO Music desde 2023. Anthropic, valorada recientemente en 380.000 millones de dólares tras recaudar 30.000 millones, no hizo comentarios. Mantiene defensas de uso justo en litigios en curso.

Artículos relacionados

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagen generada por IA

Anthropic demanda al Departamento de Defensa de EE.UU. por designación de riesgo en la cadena de suministro

Reportado por IA Imagen generada por IA

Anthropic ha presentado una demanda federal contra el Departamento de Defensa de EE.UU., cuestionando su reciente etiqueta de la empresa de IA como un riesgo en la cadena de suministro. La disputa surge de un desacuerdo contractual sobre el uso del Claude AI de Anthropic para fines militares, incluyendo restricciones en la vigilancia masiva y armas autónomas. La empresa argumenta que la designación viola los derechos de libertad de expresión y debido proceso.

Anthropic ha anunciado que su chatbot de IA Claude permanecerá libre de anuncios, en fuerte contraste con la reciente decisión de su rival OpenAI de probar anuncios en ChatGPT. La compañía lanzó una campaña publicitaria en el Super Bowl que se burla de los asistentes de IA que interrumpen las conversaciones con promociones de productos. Esta jugada resalta las crecientes tensiones en el competitivo panorama de la IA.

Reportado por IA

El presidente de EE.UU., Donald Trump, ha dirigido a las agencias federales a cesar inmediatamente el uso de la IA Claude de Anthropic, tras la negativa de la compañía a permitir su empleo para vigilancia masiva o armas autónomas. La orden incluye un período de transición de seis meses. Esta decisión surge de los enfrentamientos continuos entre Anthropic y el Departamento de Defensa sobre restricciones a la IA.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Reportado por IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Tras la prohibición federal de la semana pasada sobre sus herramientas de IA, Anthropic ha reanudado las negociaciones con el Departamento de Defensa de EE.UU. para evitar una designación como riesgo en la cadena de suministro. Mientras tanto, el acuerdo militar paralelo de OpenAI está recibiendo críticas de empleados, rivales y el CEO de Anthropic, Dario Amodei, quien lo acusó de afirmaciones engañosas en un memo filtrado.

Reportado por IA

Anthropic ha lanzado el Anthropic Institute, una nueva iniciativa de investigación, y ha abierto su primera oficina de Políticas Públicas en Washington, DC, esta primavera. Estos pasos siguen a la reciente demanda federal presentada por la empresa de IA contra el gobierno de EE.UU. por una designación de riesgo en la cadena de suministro del Departamento de Defensa vinculada a una disputa contractual.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar