BMG poursuit Anthropic pour violation des droits d'auteur dans la formation de Claude

La société de droits musicaux BMG a intenté une action en justice contre la société d'intelligence artificielle Anthropic, alléguant l'utilisation non autorisée de paroles de chansons pour former son chatbot Claude. La plainte affirme que l'infraction remonte à la création d'Anthropic et concerne des œuvres d'artistes tels que Justin Bieber et Bruno Mars. BMG demande des dommages et intérêts pouvant aller jusqu'à 150 000 dollars par œuvre violée.

BMG a intenté une action en justice le 17 mars 2026 devant le tribunal fédéral de Californie, accusant Anthropic de violation des droits d'auteur en utilisant des paroles de compositions gérées par BMG pour entraîner Claude. La plainte de 47 pages détaille la manière dont Anthropic aurait récupéré des textes sur des sites web publics, des bibliothèques pirates illégales, MusicMatch, LyricFind et des livres de partitions depuis sa création en 2021 par d'anciens membres du personnel d'OpenAI. Parmi les exemples concrets, Claude a produit des portions significatives des paroles de "Uptown Funk" de Bruno Mars, "You Can't Always Get What You Want" des Rolling Stones, "What A Wonderful World" de Louis Armstrong, "7 Rings" d'Ariana Grande, et "Kryptonite" de 3 Doors Down. Même les demandes de paroles originales génèreraient des dérivés ou des mash-ups basés sur ces œuvres, selon la plainte. Une liste non exhaustive figurant dans la plainte identifie 467 chansons prétendument enfreintes, ce qui pourrait donner lieu à des dommages-intérêts d'au moins 70 millions de dollars, le montant maximal prévu par la loi étant de 150 000 dollars par œuvre. BMG affirme avoir envoyé une lettre de cessation et de désistement en décembre 2025, à laquelle Anthropic n'a pas répondu, et n'avoir jamais autorisé l'utilisation. Anthropic a violé de manière flagrante les lois sur le droit d'auteur et a causé un préjudice direct à BMG et aux auteurs-compositeurs qu'elle représente fièrement", peut-on lire dans l'action en justice. Des générations d'inventeurs ont mis sur le marché de nouveaux produits révolutionnaires tout en respectant la loi sur les droits d'auteur. Le développement rapide de la nouvelle technologie d'Anthropic n'est pas une excuse pour sa violation flagrante de la loi". Un porte-parole de BMG a ajouté : "Il est essentiel de protéger les droits de ceux qui confient le travail de leur vie à BMG... la protection des droits d'auteur et une rémunération équitable ne sont pas négociables". L'action en justice allègue également une responsabilité secondaire pour les infractions commises par les utilisateurs et demande la divulgation des données d'entraînement d'Anthropic. Cette action fait suite à des actions similaires intentées par Universal Music Publishing Group, Concord Music et ABKCO Music depuis 2023. Anthropic, récemment évaluée à 380 milliards de dollars après avoir levé 30 milliards de dollars, n'a pas fait de commentaires. Elle maintient ses défenses en matière d'utilisation équitable dans le cadre des litiges en cours.

Articles connexes

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Image générée par IA

Anthropic poursuit le département de la Défense américain en justice pour sa désignation comme risque dans la chaîne d'approvisionnement

Rapporté par l'IA Image générée par IA

Anthropic a déposé une plainte fédérale contre le département de la Défense des États-Unis, contestant son étiquetage récent de l'entreprise d'IA comme un risque pour la chaîne d'approvisionnement. Le différend provient d'un désaccord contractuel sur l'utilisation de l'IA Claude d'Anthropic à des fins militaires, incluant des restrictions sur la surveillance de masse et les armes autonomes. L'entreprise affirme que cette désignation viole les droits à la liberté d'expression et aux garanties procédurales.

Anthropic a annoncé que son chatbot IA Claude restera sans publicité, en net contraste avec la décision récente de son rival OpenAI de tester des publicités dans ChatGPT. L'entreprise a lancé une campagne publicitaire lors du Super Bowl moquant les assistants IA qui interrompent les conversations avec des pitches produits. Cette initiative met en lumière les tensions croissantes dans le paysage concurrentiel de l'IA.

Rapporté par l'IA

Le président américain Donald Trump a ordonné aux agences fédérales de cesser immédiatement d'utiliser l'IA Claude d'Anthropic, après le refus de l'entreprise d'autoriser son usage pour la surveillance de masse ou les armes autonomes. L'ordonnance prévoit une période de transition de six mois. Cette décision résulte des affrontements en cours entre Anthropic et le Département de la Défense sur les restrictions relatives à l'IA.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Rapporté par l'IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Après l’interdiction fédérale la semaine dernière de ses outils d’IA, Anthropic a repris les négociations avec le département de la Défense des États-Unis pour éviter une désignation de risque pour la chaîne d’approvisionnement. Parallèlement, l’accord militaire parallèle d’OpenAI fait l’objet de critiques de la part des employés, des rivaux et du PDG d’Anthropic, Dario Amodei, qui l’a accusé de déclarations trompeuses dans un mémo divulgué.

Rapporté par l'IA

Anthropic a lancé l’Anthropic Institute, une nouvelle initiative de recherche, et ouvert son premier bureau de politique publique à Washington, DC, ce printemps. Ces mesures font suite au récent procès fédéral intenté par l’entreprise d’IA contre le gouvernement américain concernant une désignation de risque dans la chaîne d’approvisionnement du Département de la Défense liée à un différend contractuel.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser