KI & Urheberrecht: Warum der Streit längst nicht mehr nur beim Training beginnt

27.03.2026
Gernot Fritz, Hannah Kercz, Amina Kovacevic

Die urheberrechtliche Diskussion rund um Künstliche Intelligenz hat in den letzten zwei Jahren deutlich an Kontur gewonnen. Was lange als theoretische Grundsatzfrage geführt wurde, wird zunehmend durch Rechtsprechung konkretisiert. In Europa, den USA und Asien zeichnen sich belastbarere Linien ab – allerdings ohne dass bereits von einem einheitlichen Verständnis gesprochen werden könnte.

Bemerkenswert ist dabei vor allem die Verschiebung des Fokus. Die Debatte kreist längst nicht mehr primär um die Frage, ob KI-generierter Output urheberrechtlich geschützt sein kann. Der eigentliche Konflikt verläuft heute entlang der gesamten Wertschöpfungskette: von Trainingsdaten über Input-Daten bis hin zu den generierten Outputs.

Urheberrecht ist im KI-Kontext damit kein punktuelles Spezialthema mehr, sondern ein Strukturthema. Genau das zeigt die aktuelle Entwicklung besonders deutlich.

Training von KI-Systemen: Zwischen Schranke, Opt-out und neuer Lizenzlogik

Ein zentraler Schwerpunkt der jüngeren Rechtsprechung liegt auf der Frage, ob und unter welchen Voraussetzungen urheberrechtlich geschützte Werke für das Training von KI-Systemen verwendet werden dürfen.

Die Entscheidungen des LG und OLG Hamburg im Verfahren Kneschke v. LAION vertreten hier eine vergleichsweise offene Linie. Sie stellen klar, dass die Nutzung urheberrechtlich geschützter Inhalte für Trainingszwecke nicht automatisch unzulässig ist, sondern unter bestimmten Voraussetzungen von urheberrechtlichen Schranken – insbesondere im Rahmen des Text- und Data-Mining – gedeckt sein kann.

Diese Einordnung ist systematisch konsequent. KI-Training wird weder als rechtsfreier Raum noch als per se unzulässig behandelt, sondern in die bestehende urheberrechtliche Systematik eingebettet. Maßgeblich sind insbesondere der rechtmäßige Zugang zu den Inhalten, die technische Erforderlichkeit der Vervielfältigungen sowie das Fehlen eines wirksamen Nutzungsvorbehalts.

Gerade Letzteres ist für die Praxis entscheidend. Die Hamburger Rechtsprechung stellt hohe Anforderungen an den Opt-out. Reine Textvermerke reichen nicht aus; erforderlich ist ein maschinenlesbarer Nutzungsvorbehalt. Damit wird eine zentrale Weichenstellung sichtbar: Die praktische Durchsetzbarkeit urheberrechtlicher Positionen hängt zunehmend von ihrer technischen Implementierung ab.

Diese Linie ist auch für Österreich unmittelbar relevant. Mit § 42h UrhG besteht eine vergleichbare TDM-Schranke auf unionsrechtlicher Grundlage. Auch hier wird man technisch notwendige Analysevorgänge grundsätzlich als zulässig einordnen können, solange kein wirksamer Opt-out entgegensteht.

Neu ist jedoch, dass sich innerhalb Europas bereits unterschiedliche Akzentsetzungen abzeichnen. Während das OLG Hamburg hohe Anforderungen an die technische Ausgestaltung von Nutzungsvorbehalten stellt, deutet etwa die dänische Rechtsprechung darauf hin, dass auch weniger strikt formalisierten Opt-out-Mechanismen rechtliche Relevanz zukommen kann. Damit entsteht ein erstes Spannungsfeld innerhalb der unionsrechtlich harmonisierten TDM-Systematik.

Diese Divergenz bleibt nicht auf die Rechtsprechung beschränkt. Mit dem Initiativbericht des Europäischen Parlaments vom März 2026 wird deutlich, dass die politische Diskussion bereits weitergeht. Der Bericht kritisiert ausdrücklich, dass bestehende Opt-out-Mechanismen in der Praxis häufig schwer handhabbar, unzureichend standardisiert und wenig transparent sind. Gleichzeitig fordert das Parlament mehr Transparenz über Trainingsdaten, funktionierende Lizenz- und Vergütungsmodelle sowie standardisierte, maschinenlesbare Opt-out-Lösungen.

Damit verschiebt sich der Fokus erkennbar: Es geht nicht mehr nur um die Frage, ob Training im Einzelfall zulässig ist, sondern darum, ob die bestehenden urheberrechtlichen Instrumente strukturell ausreichen, um KI-Training fair und kontrollierbar zu gestalten. Die Diskussion bewegt sich damit von der Schrankenlogik hin zu einem stärker lizenz- und governancebasierten Modell.

Auch ein Blick in die USA zeigt, dass sich keine einheitliche Linie herausgebildet hat. Die Bewertung erfolgt dort primär über das Fair-Use-Konzept und ist stark einzelfallabhängig. Entscheidungen wie Thomson Reuters v. ROSS Intelligence, Bartz v. Anthropic oder Kadrey v. Meta verdeutlichen, dass insbesondere die Herkunft der Trainingsdaten und ihre wirtschaftlichen Auswirkungen entscheidend sind. Je stärker auf problematische oder rechtswidrig beschaffte Datensätze zurückgegriffen wird, desto kritischer fällt die Bewertung aus.

Für die Praxis bedeutet das: Nicht nur die Leistungsfähigkeit eines Modells ist entscheidend, sondern zunehmend auch die Qualität und Nachvollziehbarkeit seiner Datenbasis.

Outputs: Rechtlich heikel wird oft das Ergebnis

Neben dem Training rückt der Output von KI-Systemen zunehmend in den Mittelpunkt. Die zentrale Frage lautet hier: Wann wird ein generiertes Ergebnis selbst zur Urheberrechtsverletzung?

Die Entscheidung des LG München I im Verfahren GEMA v. OpenAI verdeutlicht diesen Perspektivwechsel. Der Fokus liegt nicht mehr primär auf der abstrakten Trainingsdiskussion, sondern auf der konkreten Frage, ob ein System geschützte Inhalte in erkennbarer Weise reproduziert oder wiedergibt.

Während Trainingsprozesse häufig schwer zugänglich und technisch komplex sind, ist der Output unmittelbar sichtbar und wirtschaftlich verwertbar. Genau dort entsteht die größte praktische Relevanz – und damit auch das größte rechtliche Risiko.

Ähnliche Entwicklungen zeigen sich in den USA, etwa in Verfahren gegen OpenAI durch Medienunternehmen. Auch hier verschiebt sich der Konflikt zunehmend auf die Frage, ob KI-Systeme Inhalte funktional substituieren oder in wirtschaftlich relevanter Weise verwerten.

Das Verfahren Getty v. Stability AI im Vereinigten Königreich unterstreicht zudem eine weitere zentrale Herausforderung: die mangelnde Transparenz von Trainingsprozessen. Die Entscheidung zeigt weniger eine inhaltliche Entwarnung als vielmehr, wie schwierig es bislang ist, die entscheidenden Tatsachen überhaupt nachweisbar zu machen.

Genau hier greifen regulatorische Entwicklungen ineinander. Der AI Act schafft erstmals verbindliche Transparenz- und Dokumentationspflichten für bestimmte KI-Systeme und Modelle. Diese adressieren zwar nicht unmittelbar urheberrechtliche Fragestellungen, verbessern aber die faktische Durchsetzbarkeit entsprechender Ansprüche erheblich.

Parallel dazu erweitert der Initiativbericht des Europäischen Parlaments die Perspektive ausdrücklich über das Training hinaus. Er adressiert nicht nur Trainingsdaten, sondern auch Inferenzprozesse, Retrieval-Augmented Generation und KI-gestützte Konkurrenzangebote zu bestehenden Inhalten. Besonders im Bereich von Presse und Medien wird deutlich, dass es nicht mehr nur um vergangene Datennutzung geht, sondern um laufende Wertschöpfung und potenzielle Substitution bestehender Geschäftsmodelle.

International zeigt sich zudem eine klare Tendenz: Während das Training häufig rechtlich noch Spielräume eröffnet, ist der Output deutlich angreifbarer. Das gilt insbesondere dort, wo Inhalte erkennbar reproduziert oder wirtschaftlich substituiert werden.

Ein Blick nach China verdeutlicht diese Entwicklung besonders eindrücklich. Dort haben Gerichte in mehreren Entscheidungen eine Haftung für KI-generierte Inhalte bejaht, wenn diese geschützte Werke in erkennbarer Weise reproduzieren. So hat etwa das Guangzhou Internet Court im sogenannten „Ultraman“-Fall erstmals einen Anbieter generativer KI für urheberrechtsverletzende Outputs verantwortlich gemacht. Auch nachfolgende Entscheidungen – etwa durch das Hangzhou Internet Court und das Hangzhou Intermediate People’s Court – bestätigen diese Linie und zeigen eine klare Fokussierung auf den konkreten Output und dessen Wirkung.

Schutzfähigkeit von KI-Outputs: Menschliche Kreativität bleibt zentral

Die Frage, ob KI-generierte Inhalte selbst urheberrechtlich geschützt sind, ist demgegenüber vergleichsweise klar beantwortet.

Sowohl in den USA als auch in Europa bleibt menschliche Kreativität die zentrale Voraussetzung für urheberrechtlichen Schutz. Entscheidungen wie Thaler v. Perlmutter oder jüngere nationale Urteile – etwa des AG München zu KI-generierten Logos – bestätigen diese Linie deutlich.

Gleichzeitig konkretisieren Gerichte zunehmend, was unter ausreichender menschlicher Mitwirkung zu verstehen ist. Weder bloßes Prompting noch Auswahlentscheidungen oder technischer Aufwand genügen für sich genommen. Entscheidend ist, ob sich eine eigenständige schöpferische Leistung einer natürlichen Person im Ergebnis widerspiegelt.

Diese Linie entspricht der grundlegenden Systematik des Urheberrechts: Geschützt wird nicht der Einsatz von Technologie, sondern die individuelle kreative menschliche Entscheidung.

Auch die chinesische Rechtsprechung liefert hierzu aufschlussreiche Impulse. Während sie einerseits eine vergleichsweise strenge Linie bei der Haftung für KI-generierte Outputs verfolgt, erkennt sie andererseits Schutzfähigkeit dort an, wo menschliche Beiträge konkret nachweisbar sind. So wurde etwa im sogenannten „Half Heart“-Fall ein mit Midjourney generiertes und weiterbearbeitetes Bild als urheberrechtlich geschützt anerkannt, weil der menschliche Einfluss durch Auswahl, Steuerung und Nachbearbeitung ausreichend konkret belegt werden konnte.

Gleichzeitig zeigen weitere Entscheidungen, dass die Anforderungen an diesen Nachweis hoch sind. Gerichte verlangen zunehmend eine nachvollziehbare Dokumentation des kreativen Prozesses und lassen bloß nachträglich rekonstruierte Prompt-Abfolgen regelmäßig nicht ausreichen. Auch hier zeigt sich: Entscheidend ist nicht der Einsatz von KI als solcher, sondern die konkret nachweisbare menschliche Gestaltung.

Zwischenfazit: Fragmentiert, aber mit klaren Entwicklungslinien

Die Rechtsprechung liefert derzeit kein vollständig geschlossenes Bild. Sie zeigt aber klare Muster.

Training wird tendenziell großzügiger bewertet als Output. Die Herkunft und Qualität der Datenbasis gewinnt massiv an Bedeutung. Menschliche Kreativität bleibt der zentrale Anknüpfungspunkt für Schutzfähigkeit. Und Transparenz entwickelt sich zum entscheidenden Hebel – sowohl für die Durchsetzung von Rechten als auch für Compliance.

International wird dabei eine weitere Entwicklung sichtbar: Europa setzt stärker auf Transparenz, Opt-out-Mechanismen und regulatorische Flankierung. Die USA arbeiten mit dem flexiblen Fair-Use-Ansatz. In Asien zeigt sich eine deutlich outputzentrierte Perspektive – mit einer höheren Bereitschaft, konkrete Haftungstatbestände anzunehmen, gleichzeitig aber auch einer differenzierten Anerkennung menschlicher Mitwirkung bei der Schutzfähigkeit.

Diese Fragmentierung ist kein Übergangsphänomen, sondern Ausdruck struktureller Unterschiede – und zunehmend auch industriepolitischer Prioritäten.

Was bedeutet das für Unternehmen?

Für Unternehmen verschiebt sich der Fokus damit deutlich. Urheberrechtliche Risiken entstehen nicht mehr abstrakt, sondern entlang konkreter Prozessschritte: bei der Auswahl und Dokumentation von Trainingsdaten, bei der Nutzung von Input-Daten, bei der Integration von Modellen und insbesondere bei der Kontrolle von Outputs.

Im europäischen Kontext kommt hinzu, dass sich urheberrechtliche Fragestellungen zunehmend mit regulatorischen Anforderungen verschränken. Der AI Act verstärkt diese Entwicklung, indem er Transparenz, Dokumentation und Governance strukturell verankert.

Für die Praxis bedeutet das: KI ist kein reines Technologieprojekt mehr. Wer KI entwickelt, einkauft oder einsetzt, muss urheberrechtliche Fragestellungen von Beginn an mitdenken – nicht nur punktuell, sondern entlang der gesamten Systemarchitektur.

Interne Richtlinien, klare Freigabeprozesse, saubere Dokumentation und durchdachte Vertragsstrukturen sind dabei keine optionalen Ergänzungen mehr. Sie werden zur Voraussetzung für einen rechtssicheren und skalierbaren Einsatz von KI.

Fazit: Urheberrecht wird zur Infrastrukturfrage

Die aktuellen Entwicklungen zeigen deutlich, dass sich urheberrechtliche Fragen im KI-Kontext nicht mehr isoliert beantworten lassen. Sie sind integraler Bestandteil der technischen und organisatorischen Gestaltung von KI-Systemen.

Der entscheidende Wandel liegt dabei weniger in den Grundprinzipien als in ihrer Anwendung. Urheberrecht wird zunehmend entlang von Datenflüssen, Prozessen und Systementscheidungen gedacht – und zugleich stärker durch regulatorische Anforderungen flankiert.

Rechtsprechung, Regulierung und politische Initiativen greifen dabei ineinander: Während Gerichte bestehende dogmatische Linien fortentwickeln, treiben der AI Act und insbesondere der Initiativbericht des Europäischen Parlaments die strukturelle Weiterentwicklung in Richtung Transparenz, Nachvollziehbarkeit und Vergütung voran.

Der urheberrechtliche Konflikt beginnt nicht erst beim Output – und auch nicht erst beim Training. Er beginnt bei der Datenbasis, setzt sich in der Systemarchitektur fort und entscheidet sich in der konkreten Nutzung.

Wer KI rechtssicher und skalierbar einsetzen will, muss genau dort ansetzen – gerne begleiten wir Sie dabei.