Was ist
Am Dienstag hat das Landgericht München der Verwertungsgesellschaft Gema recht gegeben, die OpenAI verklagt hatte (Justiz Bayern). Der Vorwurf: OpenAI habe die Songtexte von neun deutschen Künstlerïnnen teils wörtlich wiedergegeben und damit ihre Urheberrechte verletzt.
Es war die erste Entscheidung, die auf dem europäischen Urheberrecht beruht. Auch deshalb könnte das Urteil eine Signalwirkung haben, die über Deutschland hinausgeht.
Wir analysieren die aktuelle Entscheidung, geben einen Überblick der laufenden Verfahren und erklären, warum es dringend Rechtssicherheit braucht – für Rechteinhaber und für Konzerne.
Warum das wichtig ist
Generative KI beruht auf einem kreativen Umgang mit dem geistigen Eigentum von Kreativen. Und das ist noch die freundliche Version. KI-Konzerne wie OpenAI und Google haben ihre Modelle jahrelang mit allem trainiert, was das Netz hergab. Jetzt führen ihre Produkte dazu, dass die Arbeit jener Menschen, deren Urheberrechte sie dabei ignoriert haben, weiter an ökonomischem Wert verliert.
Die Frage ist nicht, ob das fair ist. „Das Leben ist nicht fair“, sang schon Herbert Grönemeyer – einer der Songwriter, dessen Texte die Gema vor Gericht als Beweismaterial einbrachte. Das gilt erst recht für digitale Geschäftsmodelle. Tech-Unternehmen sind nicht für das Wohlergehen der Kultur- und Medienbranche verantwortlich. Man sollte deshalb nicht mit Gerechtigkeit argumentieren, sondern mit Recht. Die entscheidende Frage lautet also: Ist das legal?
Wie die Gema argumentiert
- Die Gema sagt, OpenAI habe die Urheberrechte der Künstlerïnnen auf zweierlei Weise verletzt.
- Zum einen habe das Sprachmodell die Songtexte memorisiert. Dadurch würden sie innerhalb des Modells illegal vervielfältigt.
- Zum anderen zitiere ChatGPT die Lyrics teils wörtlich. Das stelle eine öffentliche Aufführung dar, wodurch die Verwertungsrechte verletzt würden.
Wie OpenAI argumentiert
- Das Unternehmen widerspricht dem Vorwurf der Gema. Die Songtexte seien in den Gewichten des Modells nicht wie in einer Datenbank gespeichert.
- KI-Systeme kopierten das Trainingsmaterial nicht, sondern leiteten Muster darauf ab. Die Antworten beruhten nur auf Wahrscheinlichkeiten, nicht auf wortgetreuer Wiedergabe gespeicherter Informationen.
- Zudem sei man nicht selbst für mögliche Urheberrechtsverstöße verantwortlich. Schuld seien die Nutzerïnnen, die ChatGPT mit gezielten Prompts den mutmaßlich illegalen Output entlockten.
Was das Gericht sagt
- Die vorsitzende Richterin Elke Schwager folgt weitgehend der Sichtweise der Gema und bestätigt beide Vorwürfe.
- Demnach verletzt sowohl die Memorisierung in den Sprachmodellen als auch die Wiedergabe in den Antworten von ChatGPT die Verwertungsrechte.
- Das Modell habe lange und komplexe Liedtexte wörtlich und fehlerfrei wiedergegeben. Dabei könne es sich nicht um Zufall oder bloße Wahrscheinlichkeiten handeln.
- Dafür sei OpenAI selbst und nicht die Nutzerïnnen verantwortlich. Für den Output seien keine komplizierten Prompts nötig gewesen. Es habe gereicht, ChatGPT nach dem Songtext zu fragen.
- Die deutsche Umsetzung des europäischen Urheberrechts sieht in § 44b Ausnahmen für Text- und Data-Mining vor. Diese Schrankenbestimmungen greifen der Richterin zufolge nicht.
- Die Ausnahme setze voraus, dass die Verwertungsinteressen der Rechteinhaber nicht berührt würden. Das erlaube zwar das Training, nicht aber die Vervielfältigung.
- Bei der Verkündung des Urteils sagte Richterin Schwager, man habe „eine hochintelligente Beklagte“, die in der Lage sei, modernste Technologien zu entwickeln.
- Da mute es doch erstaunlich an, dass OpenAI nicht erkenne: Wenn man etwas bauen wolle und Bauteile brauche, „dann erwerben Sie sie und nutzen nicht das Eigentum anderer“.
Was das Urteil bedeutet
Kurzfristig ändert sich wenig. Dafür gibt es mehrere Gründe:
1. Das Urteil ist nicht rechtskräftig
- OpenAI wird Berufung einlegen, vermutlich landet der Fall vor dem Europäischen Gerichtshof.
- Deshalb haben die Geschädigten noch keine Ansprüche auf Unterlassung, Auskunft und Schadensersatz. ChatGPT wird weder heute noch in einem Jahr grundlegend anders funktionieren.
- Das Landgericht München hätte auch direkt den EuGH anrufen können. Das hätte das Verfahren ein wenig beschleunigt.
2. Das Urteil bezieht sich auf alte Modelle
- Die Klage bezog sich auf die Modelle GPT-4 und 4o, die längst von GPT-5 abgelöst wurden (das wiederum seit gestern Abend durch GPT-5.1 ersetzt wurde).
- GPT-5 lehnt Fragen nach Liedtexten mit Verweis aufs Urheberrecht ab. Zahlende Nutzerïnnen können Legacy-Modelle wählen. Auch 4 und 4o spucken keine Lyrics mehr aus. OpenAI scheint den Output also grundlegend eingeschränkt zu haben.
- Das zeigt das Dilemma vieler Prozesse und wissenschaftlicher Forschung: Oft beschäftigt man sich mit einem Gegenstand, der von der Realität überholt wurde.
- Funfact: Google scheint das Thema eher entspannt zu sehen. Gemini 2.5 Flash lässt sich mit wenig Aufwand davon überzeugen, komplette Songtexte zu liefern. Das Modell 2.5 Pro verweist dagegen bedauernd aufs Urheberrecht.
3. Ein Urteil kommt selten allein
- Das Münchner Urteil ist nur einer von vielen Datenpunkten auf dem Weg zu etwas mehr Rechtssicherheit.
- Erst vergangene Woche wies der High Court in London eine Klage von Getty Images gegen Stability AI in großen Teilen ab (The Decoder). Britisches und europäisches Urheberrecht weichen voneinander ab. Die Grundfrage war aber ähnlich.
- Die Richterin kam dabei zum gegenteiligen Schluss wie ihre Münchner Kollegin (PDF). Demnach speicherten und reproduzierten KI-Modelle keine illegalen Kopien urheberrechtlich geschützter Werke.
- Zumindest in einem Punkt sind sich beide einig: Solange die Reproduktion mit einfachen Prompts möglich ist, sind nicht die Nutzerïnnen verantwortlich, sondern die Betreiber der Chatbots.
- Derzeit verhandelt der EuGH die Klage des ungarischen Unternehmens Like Company gegen Google (PDF). Der Ausgang des Verfahrens könnte entscheidend dafür sein, wie das EU-Urheberrecht künftig auf generative KI-Systeme angewendet wird.
- Das gilt aber nur innerhalb der EU. In den USA laufen Dutzende weitere Klagen gegen OpenAI, Google, Meta, Anthropic und weitere KI-Unternehmen. Erst gestern wehrte sich etwa OpenAI gegen die Forderung der New York Times, im Zuge eines Gerichtsverfahrens 20 Millionen privater Chats als Beweismaterial herauszugeben.
- Die bisherigen Urteile aus den USA folgen eher der Sichtweise der Tech-Konzerne (SMWB). Nur in einem Fall einigte sich Anthropic auf einen Vergleich mit Autorïnnen, denen das Unternehmen immerhin rund 3000 Dollar pro Buch in Aussicht stellte.
Das Science Media Center hat acht Professorinnen und Urheberrechtsexperten um Einschätzungen zum aktuellen Urteil gebeten. Ihre Antworten geben einen guten Überblick und zeigen, dass es noch lange dauern wird, bis klar wird, wie sich KI und Copyright zueinander verhalten.
Be smart
Unsere Idealvorstellung sieht so aus:
- KI-Konzerne einigen sich mit Urheberinnen, Verwertungsgesellschaften und anderen Rechteinhabern auf faire Lizenzmodelle.
- Sie zahlen eine angemessene Gebühr dafür, dass sie ihre Modelle mit urheberrechtlich geschützten Inhalten trainieren.
- Für Material, das bereits ohne Wissen und Einverständnis der Urheberïnnen genutzt wurde, zahlen die Unternehmen eine Entschädigung.
- Die einzelnen Autorinnen und Künstler werden dabei nicht reich. Ein einzelnes Buch ist für OpenAI egal und weitgehend wertlos.
- Alle Bücher der Welt waren aber essenziell für das Training der Modelle und tragen jetzt dazu bei, dass OpenAI mit einer halben Billion Dollar bewertet wird.
- Dafür muss ein Ausgleich geschaffen werden. Vermutlich braucht es dazu eine Anpassung des EU-Urheberrechts ans KI-Zeitalter.
- Tech-Konzerne nehmen die Kultur- und Medienbranche ohnehin nicht ganz ernst. Also müssen Verlage und Verwertungsgesellschaften geschlossen auftreten. Je mehr Medien und Kreative sich zusammenschließen, desto größer ist ihre Verhandlungsmacht.
Was ziemlich sicher nicht hilft, sind Kampfbegriffe und emotionale Rhetorik. „Das Training von KI-Modellen ist Diebstahl geistigen Eigentums“, sagt etwa der Deutsche Journalisten-Verband zur Münchner Entscheidung. Das stimmt so pauschal nicht und entspricht auch nicht dem Urteil.
Gerade Medien und Verlage sollten ihren Fokus nicht nur auf Vergütungsansprüche richten. Das Urheberrecht ist nur eine von vielen Herausforderungen, die generative KI für den Journalismus bedeutet – und ziemlich sicher nicht die entscheidende.
Marvin Schade berichtete am Dienstag über ein Diskussionspapier des Spiegels und der Hamburg Media School, an dem unter anderem der geschätzte Kollege Johannes Kuhn mitgearbeitet hat (Medieninsider). Darin findet sich ein Zitat, dem wir uns anschließen:
Die zu erwartende deutliche Zunahme von synthetischem KI- Output, der sich von journalistischer Vielfalt entkoppelt, wird am Ende das Web schlechter machen - und auch negative Folgen für unsere Gesellschaften haben. (…) Publisher sollten sich deshalb in der Debatte als Garanten demokratischer Meinungsvielfalt positionieren – und nicht als Opfer des technologischen Fortschritts.
Hunderte Kommentare täglich, kein Überblick? Conversario sorgt für Durchblick
Schluss mit Moderation im Blindflug: Conversario ist deine zentrale Plattform für professionelles Community Management – kanalübergreifend, DSA-ready und KI-gestützt. Von Facebook über Threads bis YouTube: Alle Kommentare auf einen Blick. Mit Hot Posts Notification erkennst du virale Diskussionen sofort, Reply Assist liefert KI-Antwortvorschläge und Analytics macht deine Community messbar. Team-Workflows, Eskalationen, Spam-Schutz – alles DSGVO-konform und effizient.

Politics & Power
- Content Moderation: Irland leitet Untersuchung gegen X ein: Die irische Medienaufsicht hat eine Untersuchung gegen X eingeleitet. Es gäbe Hinweise, dass Nutzerïnnen Entscheidungen zur Inhaltsmoderation nicht anfechten können. Auch sei das Beschwerdesystem schwer zugänglich. Geprüft wird, ob X damit gegen den Digital Services Act der EU verstößt. (Reuters)
- EU will Googles News-Publisher-Ranking unter die Lupe nehmen: Es besteht der Verdacht, dass Google Nachrichten-Websites weniger Sichtbarkeit einräumt, wenn die Artikel Inhalte von Dritten enthalten (read: Sponsored Articles). (Financial Times)
- „WhatsApp Channels” gilt jetzt als „VLOP”. Als „VLOPs“ (Very Large Online Platforms) bezeichnet die EU-Kommission im Rahmen des Digital Services Act (DSA) Online-Plattformen mit mehr als 45 Millionen monatlich aktiven Nutzerïnnen in der EU. Für diese Unternehmen gelten strengere Pflichten zur Risikominimierung, Transparenz und Berichterstattung (Europäische Kommission). Facebook, Instagram, YouTube und TikTok zählen schon länger zu den VLOPs. Nun verschärft die EU die Kontrolle und Pflichten auch für „WhatsApp Channels”. Die private WhatsApp-Nutzung ist von den strengeren Regeln nicht betroffen. (Bloomberg)
- KI-Chatbots und das Risiko für Essstörungen: Wissenschaftler warnen, dass KI-Chatbots für Menschen mit Essstörungen oder einem erhöhten Risiko dafür ein ernstes Problem darstellen können. Die Chatbots von OpenAI (ChatGPT), Anthropic (Claude), Google (Gemini) und Mistral (Le Chat) teilen demnach teilweise problematische Ratschläge, etwa wie man eine Essstörung verbergen kann, und generieren „thinspiration“-Inhalte. (Center for Democracy and Technology)
Attention Economy
- Vine ist wieder da - also mehr oder weniger: Erinnerst du dich noch an Vine? Die Kurzvideo-Plattform galt vielen als Vorreiter von TikTok. Twitter übernahm Vine im Oktober 2012, bevor die Plattform offiziell gestartet wurde. Nach dem Launch im Januar 2013 wuchs Vine schnell und erreichte innerhalb weniger Monate Millionen von Nutzerïnnen, bevor es 2016 eingestellt wurde (🙄). Immer wieder wurde über einen Relaunch spekuliert. Im August versprach Elon Musk, das Vine-Archiv wieder online zu stellen. Doch nun ist jemand anderes mit Unterstützung von Jack Dorsey schneller gewesen: Rund 200.000 Videos von etwa 60.000 Creators kann man jetzt in der App divine.video bestaunen.
- Das ist zwar erst einmal nur ein Bruchteil dessen, was einst auf Vine zu finden war, aber das kann ja noch kommen: Nutzerïnnen sind eingeladen, neuen Content hochzuladen und Vine wieder neues Leben einzuhauchen (TechCrunch). Interessanterweise bildet das dezentrale Nostr-Protokoll die Basis für die App, was externen Entwicklerïnnen viele Möglichkeiten bieten sollte, die Videos von diVine zu nutzen. Dass diVine allerdings die Videos wieder online gestellt hat, ohne die Urheber vorher zu fragen, lässt uns nur stauen. Man könne ja einen Antrag stellen, die Videos offline zu nehmen, heißt es. Tja.
- Hyper, Hyper! YouTube bietet mit der Hype-Funktion seit einiger Zeit eine interessante Möglichkeit, Inhalte zu pushen, denen der Algorithmus-Gott noch nicht all zu gnädig war. Jetzt können Userïnnen Inhalte aber nicht nur mit ihren spärlichen Hype-Credits mehr Rückenwind verleihen, sie können auch darüber posten (Social Media Today). Spannend, wie YouTube Nutzerïnnen immer mehr Optionen an die Hand gibt, die Plattform jenseits der Kommentarfunktion als klassische Social-Media-Plattform zu interpretieren.
Trends & Beobachtungen
- Wie hoch ist dein KI-Fußabdruck? Andy Masley wird nicht müde darüber zu schreiben, wie gering die Umweltbelastung durch eine einzelne ChatGPT-Anfrage im Vergleich zu alltäglichen Aktivitäten ist. Zwar sind viele Beispiele in seinem Artikel mehr Rhetorik als belastbare Wissenschaft, die grundsätzliche Aussage des Artikels halten wir aber zur Einordnung durchaus geeignet. (Substack / The Weird Turn Pro)
- Go deep: Im Juni haben wir ausführlich über den gewaltigen Ressourcenverbrauch der Rechenzentren, die für Sprachmodelle und andere KI-Anwendungen nötig sind, geschrieben:

- Metas KI-Chefwissenschaftler plant eigenes Start-up: Yann LeCun ist gut informierten Leserïnnen sicherlich ein Begriff. LeCun genießt einen exzellenten Ruf als einer der weltweit führenden KI-Forscher. Er wird sowohl für seine fachliche Expertise (Turing Award 2018), als auch für sein Engagement für mehr Transparenz bei der KI-Entwicklung geschätzt. Berichten zufolge plant LeCun nun, Meta zu verlassen, um ein eigenes Unternehmen zu gründen. Das dürfte in Metas KI-Teams für erhebliches Aufsehen sorgen. (heise online)
- KI-Song stürmt die Charts: Der Country-Song „Walk My Walk” ist der erste komplett KI-generierte Titel, der auf Platz 1 der US-Billboard Digital Song Sales Charts landet (Garbage Day). What a time to be alive!
Empfehlungen


Neue Features bei den Plattformen
ChatGPT
- GPT-5.1 ist da: Laut OpenAI zeichnet sich die neueste Version durch einen freundlicheren und empathischeren Ton aus. Nutzerïnnen können den Tonfall nun individuell anpassen – Optionen sind Standard, professionell, freundlich, aufrichtig, skurril, effizient, nerdig und zynisch (OpenAI). John Gruber fragt sich, ob nicht eigentlich alle Chatbots effizient sein sollten (Daring Fireball). Tja, das sieht OpenAI mit Blick auf die Nutzungsstatistiken offenbar anders. Nicht alle wollen mit einer KI chatten, um etwas zu erledigen 👥
YouTube
- Members only! YouTube bietet jetzt bei Kanälen eine neue Option, die es ermöglicht, Inhalte nach free und paid zu sortieren. (Social Media Today)
Threads
- Podcasts ftw! Threads möchte gern zu der bestimmenden Plattform werden, auf der über Podcasts diskutiert wird, und führt daher neue Features ein. Zum einen können Nutzerïnnen ihre Podcasts nun direkt in der Bio verlinken. Zum anderen werden Links zu Podcasts jetzt nutzerfreundlicher als Preview geladen. (Threads, TechCrunch)
In eigener Sache
Wir haben jetzt einen eigenen Newsfeed, exklusiv für Mitglieder, auf unserer Website. Dort findest du Artikel, Studien, Podcast-Folgen, YouTube-Videos und Social-Media-Posts, die uns bei der Recherche begegnen und die wir für besonders wertvoll halten. Nicht alles davon erscheint im Briefing. Wer den Feed nutzen möchte, loggt sich mit der E-Mail-Adresse ein, mit der auch der Newsletter empfangen wird. socialmediawatchblog.de/newsfeed



