BMG sues Anthropic for copyright infringement in Claude training

Music rights company BMG has filed a lawsuit against AI firm Anthropic, alleging unauthorized use of song lyrics to train its Claude chatbot. The complaint claims infringement dates back to Anthropic's founding and involves works by artists including Justin Bieber and Bruno Mars. BMG seeks damages up to $150,000 per infringed work.

BMG filed the lawsuit on March 17, 2026, in federal court in California, accusing Anthropic of copyright infringement by using lyrics from BMG-managed compositions to train Claude. The 47-page complaint details how Anthropic allegedly scraped text from public websites, illegal pirate libraries, MusicMatch, LyricFind, and sheet music books since its 2021 founding by former OpenAI staffers. Specific examples include Claude outputting significant portions of lyrics to Bruno Mars' 'Uptown Funk,' the Rolling Stones' 'You Can’t Always Get What You Want,' Louis Armstrong’s 'What A Wonderful World,' Ariana Grande’s '7 Rings,' and 3 Doors Down’s 'Kryptonite.' Even prompts for original lyrics reportedly generate derivatives or mash-ups based on these works, the suit claims. A non-exhaustive list in the complaint identifies 467 allegedly infringed songs, potentially leading to at least $70 million in damages at the statutory maximum of $150,000 per work. BMG states it sent a cease-and-desist letter in December 2025, which Anthropic did not answer, and never authorized the use. 'Anthropic has blatantly violated the copyright laws and caused direct harm to BMG and the songwriters it proudly represents,' the lawsuit reads. 'Generations of inventors have brought revolutionary new products to market while complying with copyright law. Anthropic’s rapid development of its new technology is no excuse for its egregious law-breaking.' A BMG spokesperson added, 'Protecting the rights of those who entrust their life’s work to BMG is essential... copyright protection and fair remuneration are non-negotiable.' The suit also alleges secondary liability for users' infringements and seeks disclosure of Anthropic's training data. This follows similar cases by Universal Music Publishing Group, Concord Music, and ABKCO Music since 2023. Anthropic, recently valued at $380 billion after raising $30 billion, did not comment. It maintains fair use defenses in ongoing litigation.

Artigos relacionados

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagem gerada por IA

Anthropic processa Departamento de Defesa dos EUA por designação de risco na cadeia de suprimentos

Reportado por IA Imagem gerada por IA

A Anthropic apresentou uma ação judicial federal contra o Departamento de Defesa dos EUA, contestando a recente classificação da empresa de IA como risco na cadeia de suprimentos. A disputa decorre de um desacordo contratual sobre o uso do Claude AI da Anthropic para fins militares, incluindo restrições à vigilância em massa e armas autônomas. A empresa argumenta que a designação viola os direitos de liberdade de expressão e devido processo legal.

A Anthropic anunciou que o seu chatbot de IA Claude permanecerá livre de anúncios, em forte contraste com a recente decisão do rival OpenAI de testar anúncios no ChatGPT. A empresa lançou uma campanha publicitária no Super Bowl que ridiculariza assistentes de IA que interrompem conversas com promoções de produtos. Esta jogada destaca as tensões crescentes no panorama competitivo de IA.

Reportado por IA

O presidente dos EUA, Donald Trump, determinou que as agências federais cessem imediatamente o uso da IA Claude da Anthropic, após a recusa da empresa em permitir seu emprego para vigilância em massa ou armas autônomas. A ordem inclui um período de transição de seis meses. Essa decisão decorre de confrontos contínuos entre a Anthropic e o Departamento de Defesa sobre restrições à IA.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Reportado por IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Após a proibição federal de suas ferramentas de IA na semana passada, a Anthropic retomou negociações com o Departamento de Defesa dos EUA para evitar uma designação de risco na cadeia de suprimentos. Enquanto isso, o acordo militar paralelo da OpenAI está sob críticas de funcionários, rivais e do CEO da Anthropic, Dario Amodei, que o acusou de alegações enganosas num memorando vazado.

Reportado por IA

A Anthropic lançou o Anthropic Institute, uma nova iniciativa de pesquisa, e abriu seu primeiro escritório de Políticas Públicas em Washington, DC, nesta primavera. Essas medidas seguem a recente ação judicial federal da empresa de IA contra o governo dos EUA relacionada a uma designação de risco na cadeia de suprimentos do Departamento de Defesa, ligada a uma disputa contratual.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar