BMG verklagt Anthropic wegen Urheberrechtsverletzung bei Claude-Training

Die Musikrechtefirma BMG hat eine Klage gegen die KI-Firma Anthropic eingereicht. Sie behauptet, dass der Chatbot Claude unerlaubt Songtexte verwendet hat, um sie zu trainieren. In der Klage wird behauptet, dass die Rechtsverletzung bis zur Gründung von Anthropic zurückreicht und Werke von Künstlern wie Justin Bieber und Bruno Mars betrifft. BMG fordert Schadensersatz in Höhe von bis zu 150.000 Dollar pro verletztem Werk.

BMG reichte die Klage am 17. März 2026 bei einem Bundesgericht in Kalifornien ein und beschuldigte Anthropic der Verletzung von Urheberrechten durch die Verwendung von Songtexten aus von BMG verwalteten Kompositionen, um Claude zu trainieren. In der 47-seitigen Klageschrift wird detailliert beschrieben, wie Anthropic seit seiner Gründung im Jahr 2021 durch ehemalige OpenAI-Mitarbeiter angeblich Texte von öffentlichen Websites, illegalen Raubkopien, MusicMatch, LyricFind und Notenbüchern abgreift. Konkrete Beispiele sind Claude, der erhebliche Teile der Texte von Bruno Mars' "Uptown Funk", den Rolling Stones' "You Can't Always Get What You Want", Louis Armstrongs "What A Wonderful World", Ariana Grandes "7 Rings" und 3 Doors Downs "Kryptonite" ausgibt. Berichten zufolge werden sogar bei Aufforderungen zur Eingabe von Originaltexten Derivate oder Mash-Ups auf der Grundlage dieser Werke erstellt, heißt es in der Klage. Eine nicht erschöpfende Liste in der Klageschrift nennt 467 angeblich verletzte Songs, was zu einer Schadensersatzsumme von mindestens 70 Millionen Dollar bei einem gesetzlichen Höchstbetrag von 150.000 Dollar pro Werk führen könnte. BMG gibt an, im Dezember 2025 ein Unterlassungsschreiben verschickt zu haben, auf das Anthropic nicht geantwortet hat, und hat die Nutzung nie genehmigt. Anthropic hat in eklatanter Weise gegen die Urheberrechtsgesetze verstoßen und BMG und den Songwritern, die es stolz vertritt, direkten Schaden zugefügt", heißt es in der Klageschrift. Generationen von Erfindern haben revolutionäre neue Produkte auf den Markt gebracht und dabei das Urheberrecht beachtet. Die rasche Entwicklung der neuen Technologie von Anthropic ist keine Entschuldigung für die ungeheuerlichen Gesetzesverstöße des Unternehmens. Ein BMG-Sprecher fügte hinzu: "Der Schutz der Rechte derjenigen, die BMG ihr Lebenswerk anvertrauen, ist unerlässlich... Urheberrechtsschutz und faire Vergütung sind nicht verhandelbar. In der Klage wird auch die sekundäre Haftung für die Verstöße der Nutzer geltend gemacht und die Offenlegung der Trainingsdaten von Anthropic verlangt. Dies folgt auf ähnliche Fälle der Universal Music Publishing Group, Concord Music und ABKCO Music seit 2023. Anthropic, das kürzlich nach einer Kapitalerhöhung von 30 Milliarden Dollar mit 380 Milliarden Dollar bewertet wurde, gab keinen Kommentar ab. Das Unternehmen verteidigt sich in den laufenden Rechtsstreitigkeiten auf die faire Nutzung.

Verwandte Artikel

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Bild generiert von KI

Anthropic sues US defense department over supply chain risk designation

Von KI berichtet Bild generiert von KI

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

Anthropic has announced that its AI chatbot Claude will remain free of advertisements, contrasting sharply with rival OpenAI's recent decision to test ads in ChatGPT. The company launched a Super Bowl ad campaign mocking AI assistants that interrupt conversations with product pitches. This move highlights growing tensions in the competitive AI landscape.

Von KI berichtet

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's Claude AI, following the company's refusal to allow its use for mass surveillance or autonomous weapons. The order includes a six-month phaseout period. This decision stems from ongoing clashes between Anthropic and the Department of Defense over AI restrictions.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Von KI berichtet

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Following last week's federal ban on its AI tools, Anthropic has resumed negotiations with the US Defense Department to avert a supply chain risk designation. Meanwhile, OpenAI's parallel military agreement is under fire from employees, rivals, and Anthropic CEO Dario Amodei, who accused it of misleading claims in a leaked memo.

Von KI berichtet

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

 

 

 

Diese Website verwendet Cookies

Wir verwenden Cookies für Analysen, um unsere Website zu verbessern. Lesen Sie unsere Datenschutzrichtlinie für weitere Informationen.
Ablehnen