GEMA gegen OpenAI: LG München stoppt ChatGPT-Ausgaben geschützter Liedtexte

GEMA klagt gegen OpenAI (ChatGPT)

Das Landgericht München I fällte am 11.11.2025 eine richtungsweisende Entscheidung im Fall "GEMA gegen OpenAI". Die GEMA hatte zwei Unternehmen der OpenAI-Gruppe verklagt, weil der KI-Chatbot ChatGPT bekannte deutsche Liedtexte nahezu wortgetreu ausgeben konnte. Das Gericht gab der GEMA in weiten Teilen recht: OpenAI wurde zur Unterlassung, Auskunft und Schadensersatz verpflichtet. Lediglich in einem Punkt (Verletzung von Persönlichkeitsrechten durch falsch zugeschriebene oder veränderte Liedtexte) unterlag die GEMA. Das Urteil setzt einen klaren Maßstab für KI-Anbieter und stärkt die Rechte der Urheber.

Wie arbeiten große Sprachmodelle (LLM)?

Large Language Models (LLMs) wie ChatGPT sind Computerprogramme, die mithilfe neuronaler Netze auf riesigen Textmengen trainiert werden. Vereinfacht gesagt lernen sie beim Training statistische Zusammenhänge: Welche Wörter oder Sätze folgen typischerweise aufeinander? Auf Basis dieses Wissens generiert ein LLM dann Texte als Antwort auf Benutzereingaben (Prompts). Wichtig dabei: Das Modell speichert nicht einfach eine Kopie jeder Trainingsseite ab wie in einer Bibliothek. Stattdessen verdichtet es die Inhalte zu wahrscheinlichkeitsbasierten Parametern, einer Art Zahlenmatrix, die die Wahrscheinlichkeiten für bestimmte Wortfolgen enthält. So kann das LLM neue Sätze bilden, die so ähnlich in den Trainingsdaten vorkommen könnten.

Allerdings kann es passieren, dass ein LLM einzelne Passagen nahezu auswendig gelernt hat – man spricht dann von „Memorisierung“. Das bedeutet, bestimmte Inhalte aus den Trainingsdaten sind im Modell praktisch vollständig wieder abrufbar. Gerade bei sehr markanten oder häufig wiederholten Texten (z. B. berühmte Songtexte) besteht die Gefahr, dass das Modell sie Wort für Wort wiedergibt, wenn es eine passende Aufforderung bekommt. Genau hier setzte der Konflikt an.

Der konkrete Konflikt zwischen GEMA und OpenAI (ChatGPT)

Die GEMA vertritt die Rechte von Musikautoren. Sie hatte festgestellt, dass ChatGPT auf eine einfache Anfrage hin weite Teile bekannter deutscher Lieder, so u.a. „Atemlos durch die Nacht“ (Kristina Bach) und „Wie schön, dass du geboren bist“ (Rolf Zuckowski) ausgab, die nahezu identisch mit den Original-Liedtexten waren. 

Das juristische Problem: KI trifft Urheberrecht

Grundsätzlich dürfen urheberrechtlich geschützte Werke, wie beispielsweise Songtexte, nur mit Erlaubnis des Rechteinhabers genutzt werden. Wer einen urheberrechtlich geschützten Songtext vervielfältigt, ohne eine Lizenz zu besitzen, verletzt das Urheberrecht. Im Fall von KI-Systemen stellen sich nun gleich mehrere heikle Fragen.

  • Training mit geschützten Inhalten: Darf ein KI-Modell mit urheberrechtlich geschützten Texten (in diesem Fall Liedtexten) trainiert werden? Oder stellt dies bereits eine unzulässige Vervielfältigung (Kopie) des Materials dar? OpenAI argumentierte, dass beim Training keine speziellen Daten gespeichert würden, sondern nur allgemeine Muster gelernt würden. Die GEMA sah dagegen bereits im Training einen Verstoß, da die Texte im Modell memorisiert und damit faktisch kopiert würden.
  • Verantwortlichkeit für KI-Output: Wenn der Chatbot auf einen Prompt eines Nutzers hin Teile eines Songtexts ausspuckt, wer ist dann dafür verantwortlich? OpenAI meinte, die Ausgabe geschehe nur auf Veranlassung des Nutzers, daher trage dieser die Verantwortung. Die GEMA hingegen hielt den Betreiber der KI für verantwortlich, da dieser das Modell bereitstellt, das solche Texte überhaupt generieren kann.
  • Ausnahmen im Urheberrecht: Es gibt gesetzliche Schranken im Urheberrechtsgesetz, also Ausnahmen, die bestimmte Nutzungen auch ohne Erlaubnis des Rechteinhabers gestatten. OpenAI berief sich hier vor allem auf die Ausnahme für Text- und Data-Mining (TDM). Diese erlaubt es beispielsweise, urheberrechtlich geschützte Werke zu analysieren, um Informationen zu gewinnen, ohne jedes Mal den Urheber um Erlaubnis fragen zu müssen.
  • Die Frage war also: Deckt die TDM-Ausnahme das Training eines KI-Modells auf Songtexten, selbst wenn dabei möglicherweise Teile der Texte im Modell landen? OpenAI bejahte dies im Sinne einer zukunftsorientierten, innovationsfreundlichen Auslegung, die GEMA verneinte, da hier nicht nur analysiert, sondern ganze Texte übernommen würden.

All diese Fragen sind juristisches Neuland. Entsprechend groß war die Spannung, wie das Gericht sie beantworten würde.

Die Entscheidung des Gerichts: Etappensieg für GEMA 

Das Landgericht München I stellte sich weitgehend auf die Seite der GEMA. Nach Überzeugung des Gerichts wurden beim Training von GPT-4 tatsächlich geschützte Liedtexte wortwörtlich im Modell abgespeichert. Das Modell enthalte diese Texte „reproduzierbar“ in seinen Parametern. Die nahezu originalgetreue Wiedergabe langer, komplexer Songtexte auf simple Anfragen sei anders nicht zu erklären.

1. Memorisierung ist eine Vervielfältigung

Juristisch bewertet das Gericht diese Memorisierung als eine Vervielfältigung im Sinne des Urheberrechts. Entscheidend sei, dass die Texte irgendwie in den KI-Modell-Daten festgelegt sind und mit technischen Hilfsmitteln wieder wahrnehmbar gemacht werden können. Dann liege eine Kopie „in jeder Form“ vor. Unerheblich sei, dass es sich nur um Wahrscheinlichkeitswerte in einem komplexen Netzwerk handelt; auch moderne Technologien fallen unter den Vervielfältigungsschutz.

2. Ausgabe von KI-Outputs ist Vervielfältigung und öffentliche Zugänglichmachung

Darüber hinaus sah das Gericht auch in der Ausgabe der Liedtexte durch den Chatbot einen separaten Urheberrechtsverstoß: Wenn ChatGPT geschützte Texte (oder wesentliche Teile daraus) als Antwort ausgibt, stellt dies zum einen eine weitere Vervielfältigung dar und zum anderen ein öffentliches Zugänglichmachen des Werkes (denn der Text wird für potenziell unbegrenzt viele Nutzer abrufbar gemacht).

3. Verantwortlichkeit bei KI-Betreiber (OpenAI)

Interessant ist, wen das Gericht dafür verantwortlich macht: nicht den Nutzer, der die Frage gestellt hat, sondern OpenAI als Betreiber der KI. Die Richter:innen begründen dies damit, dass OpenAI das Modell entwickelt, trainiert und betreibt – inklusive der Entscheidung, geschützte Texte als Trainingsdaten zu verwenden. Zwar wird der Output durch eine Nutzereingabe ausgelöst, der Inhalt der Antwort stammt jedoch vom KI-Modell, für das OpenAI die Kontrolle und Verantwortung trägt.

4. Keine Rechtfertigung durch "Text und Data Mining"

Ein Kernpunkt der Entscheidung ist die klare Absage an eine Rechtfertigung durch die Text- und Data-Mining-Schranke gemäß § 44b UrhG. Zwar erkennt das Gericht an, dass das Training von KI grundsätzlich auch unter diese Vorschrift fallen kann.

Die TDM-Schranke erlaubt das Vervielfältigen von Werken, wenn dies zur Analyse der Informationen nötig ist, und setzt voraus, dass die Verwertungsinteressen der Urheber dadurch nicht beeinträchtigt werden. Ein typisches Beispiel ist das Kopieren von Texten in den Arbeitsspeicher, um darin nach Mustern oder Häufigkeiten zu suchen – danach werden die Kopien wieder gelöscht. Solche vorübergehenden Kopien zu Analysezwecken betrachtet das Gesetz als zulässig und sogar unvergütet erlaubt, weil dabei das Werk als Ganzes nicht genutzt oder veröffentlicht wird, sondern nur Informationen daraus gezogen werden.

Im vorliegenden Fall sah das Gericht diese Voraussetzungen jedoch als nicht erfüllt an, wurden nicht nur statistische Informationen aus den Liedern gewonnen, sondern die Songtexte selbst (vollständig oder in großen Teilen) im Modell konserviert. Damit, so das Gericht, verlasse OpenAI den Bereich des reinen „Mining“ und greife in die Verwertungsrechte der Urheber ein. Ein einmal trainiertes Modell behält die Werke dauerhaft. Dies sei etwas völlig anderes, als nur Daten auszuwerten.

Die Richter betonten, dass eine großzügigere, technikfreundliche Auslegung der TDM-Schranke hier nicht mit dem klaren Gesetzeswortlaut vereinbar sei. Auch eine analoge Anwendung lehnte das Gericht ab, da selbst wenn der Gesetzgeber beim Erlass der Regelung nicht an KI-Memorisierung gedacht haben sollte, es an einer vergleichbaren Interessenlage fehlt. Denn bei zulässigem TDM werden Urheber nicht wirtschaftlich benachteiligt, da das Werk an sich nicht verwertet wird.

Das vollständige Speichern eines Werkes im KI-Modell beeinträchtigt hingegen die Autorenrechte nachhaltig. Würde man dies unter die TDM-Schranke fassen, wären Urheber schutzlos gestellt, da sie dafür keinerlei Vergütung erhalten würden. Dieses Risiko der Memorisierung liege allein in der Sphäre des KI-Betreibers (OpenAI) und nicht beim Urheber. Daher sei es nicht gerechtfertigt, das Risiko dem Urheber aufzubürden.

5. Keine Einordnung als unwesentliches Beiwerk

OpenAI argumentierte, die Liedtexte seien im Gesamttrainingsdatensatz nur nebensächlich und von untergeordneter Bedeutung. Sie seien daher unwesentliches Beiwerk im Sinne von § 57 UrhG. 

Das Gericht wies auch diese Argumentation zurück. § 57 UrhG erfordere ein Hauptwerk, neben dem das Beiwerk stehe. Ein Trainingsdatensatz bilde jedoch kein solches Hauptwerk. Die Schranke gemäß § 57 UrhG sei daher nicht einschlägig. 

6. Keine stillschweigende Einwilligung der Rechteinhaber

Schließlich verneinte das Gericht auch eine stillschweigende Einwilligung der Urheber. Denn die Urheber müssten nicht mit einem KI-Training rechnen. Ein KI-Training sei keine etablierte Nutzungsart, die ein Rechteinhaber stillschweigend dulden müsse. Für diese Bewertung griff die Kammer auf Grundsätze aus der Rechtsprechung zur Auslegung von Einwilligungen zurück. In einem Urteil vom 19.04.2018 (I ZR 154/16, Rn. 36) betonte der BGH, dass der Umfang einer Einwilligung anhand der berechtigten Erwartungen des Rechteinhabers zu bestimmen ist.

Praktische Einordnung des Urteils

 Das Urteil aus München ist noch nicht rechtskräftig. OpenAI kann (und wird vermutlich) Rechtsmittel einlegen. Dennoch hat die Entscheidung bereits jetzt Signalwirkung für die gesamte KI-Branche. Erstmals hat ein deutsches Gericht unmissverständlich klargestellt, dass sich auch KI an das Urheberrecht halten muss. Konkret lässt sich aus dem Urteil Folgendes mitnehmen:

  • KI-Training ist kein rechtsfreier Raum: Wenn ein Sprachmodell urheberrechtlich geschützte Texte speichert, gilt das als Kopieren. Es spielt keine Rolle, ob die Daten „nur statistisch“ im Modell vorhanden sind – maßgeblich ist, dass der Originaltext wiederhergestellt werden kann. KI darf also lernen, aber nicht unerlaubt wortwörtlich kopieren.
  • Verantwortung der Anbieter: KI-Anbieter wie OpenAI können sich nicht darauf zurückziehen, dass der Nutzer den Output angefordert hat. Wenn das System auf einen einfachen Prompt urheberrechtlich geschütztes Material ausgibt, haftet in erster Linie der Betreiber der KI. Er entscheidet über Trainingsdaten und Modellarchitektur und trägt das Risiko, wenn geschützte Werke memorisiert und ausgegeben werden.
  • Die TDM-Schranke hat Grenzen: Die Text-und-Data-Mining-Ausnahme ist keine pauschale Freikarte für das KI-Training mit beliebigen Inhalten. Sie erlaubt Analysen, aber kein Behalten ganzer Werke. KI-Entwickler müssen also entweder sicherstellen, dass beim Training keine vollständigen geschützten Werke im Modell verbleiben, oder von vornherein nur lizenzierte Daten verwenden. Andernfalls drohen Unterlassungs- und Schadenersatzansprüche.

Für Autoren und Verwertungsgesellschaften wie die GEMA ist das Urteil ein Erfolg, da es ihre Verhandlungsposition gegenüber KI-Unternehmen stärkt. Rechteinhaber können auf dieser Basis deutlicher fordern, dass ihre Werke nur gegen Lizenzierung oder mit technischen Schutzmaßnahmen ins Training einbezogen werden. Die Diskussion um eine faire Beteiligung der Urheber an KI-Systemen erhält dadurch neuen Schub.

Fazit:

Das Landgericht München I zieht eine klare Linie: Eine KI darf aus geschützten Werken lernen, aber nicht in Form kompletter Werke wieder ausspucken, ohne die Rechteinhaber zu vergüten. Es bleibt abzuwarten, ob höhere Gerichte diese Sichtweise bestätigen werden.

Schon jetzt zeigt der Fall jedoch, dass das Urheberrecht und KI keine Grauzone mehr sind – wer KI-Systeme mit geschütztem Material füttert, sollte auf der Hut sein. Denn innovative Technik entbindet nicht von den geltenden Regeln und kreative Leistungen bleiben schützenswert – auch im Zeitalter von ChatGPT.

LG München I, PM vom 11.11.2025 (GEMA vs. OpenAI)

Kurzes Q&A zur Entscheidung des LG München I

Was bedeutet es, wenn ein KI-Modell Liedtexte „memorisiert“?
Memorisierung liegt vor, wenn ein Modell geschützte Texte nicht nur analysiert, sondern in seinen Parametern so speichert, dass diese Texte später nahezu identisch ausgegeben werden können. Das Gericht sah darin eine urheberrechtliche Vervielfältigung.

Warum war das Gericht sicher, dass ChatGPT die Texte gespeichert hatte?
Die KI gab lange und komplexe Liedtexte auf einfache Anfragen nahezu wortgleich wieder. Die Kammer hielt einen Zufall für ausgeschlossen. Daraus folgerte sie, dass die Werke im Modell reproduzierbar vorhanden sind.

Ist das Training eines KI-Modells mit fremden Texten grundsätzlich verboten?
Nein. Das Training kann zulässig sein, solange keine vollständigen oder weitgehend vollständigen Werke dauerhaft übernommen werden. Die Schranke für Text und Data Mining erlaubt reine Analysehandlungen, aber keine dauerhafte Speicherung von Werken.

Warum half OpenAI die Text-und-Data-Mining-Schranke hier nicht weiter?
Die Schranke erlaubt nur Vervielfältigungen, die für analytische Zwecke nötig und nicht dauerhaft sind. Das Gericht sah im Modell jedoch vollständige und abrufbare Werkteile. Damit war die Grenze des § 44b UrhG überschritten.

Wer trägt die Verantwortung für urheberrechtlich problematische KI-Outputs?
Nach Ansicht des Gerichts haften die Betreiber der Modelle. Sie entscheiden über die Datenbasis und über das Training. Nutzer lösen die Ausgabe nur aus, sind aber nicht für deren Inhalt verantwortlich.

Sind bekannte Liedtexte im großen Trainingsdatensatz nicht nur nebensächlich?
Nein. § 57 UrhG verlangt ein Hauptwerk. Ein Trainingsdatensatz ist kein Werk dieser Art. Deshalb qualifizierte das Gericht die übernommenen Liedtexte nicht als Beiwerk.

Müssen Urheber damit rechnen, dass KI ihre Werke fürs Training nutzt?
Die Kammer verneinte das. KI-Training ist keine etablierte Nutzungsart, auf die sich eine stillschweigende Einwilligung stützen ließe.

Welche Konsequenzen hat die Entscheidung für Rechteinhaber?
Rechteinhaber können bei erkennbaren Übernahmen ihrer Werke Unterlassung und Schadensersatz verlangen. Sie können zudem Auskunft über mögliche Memorisierungen fordern.

Welche Konsequenzen hat das Urteil für KI-Anbieter?
Anbieter müssen prüfen, ob ihre Modelle vollständige Werke speichern. Sie sollten technische Maßnahmen gegen Memorisierung einsetzen, geeignete Datenquellen wählen und gegebenenfalls Lizenzen erwerben.