AI Act und Vertragsgestaltung: Warum AI-Compliance am Verhandlungstisch beginnt

25.03.2026

Gernot Fritz, Tanja Pfleger, Amina Kovacevic

Wenn Unternehmen heute KI einsetzen, geschieht das nur selten vollständig intern. In der Praxis werden Systeme typischerweise eingekauft, integriert oder über Plattformen genutzt. Unternehmen beziehen damit nicht nur Technologie, sondern häufig komplexe, dynamische Systeme, deren Funktionsweise, Datenbasis und Verhalten sich laufend weiterentwickeln.

Gerade darin liegt ein wesentlicher Unterschied zu klassischer Software. KI-Systeme sind keine statischen Produkte, sondern verändern sich im Betrieb. Sie basieren auf Trainingsdaten, lernen aus neuen Inputs und werden durch Updates kontinuierlich angepasst. Damit entstehen Risiken, die sich nicht mehr allein über klassische IT-Vertragsklauseln adressieren lassen.

Vor diesem Hintergrund wird Vertragsgestaltung zu einem zentralen Element von AI-Compliance. Der AI Act reguliert nicht nur die Technologie selbst, sondern auch die Zusammenarbeit entlang der KI-Wertschöpfungskette. Viele seiner Anforderungen lassen sich in der Praxis nur dann erfüllen, wenn sie vertraglich zwischen den beteiligten Akteuren abgebildet werden.

Rollenverteilung als Ausgangspunkt jeder Vertragsgestaltung

Ein zentraler Anknüpfungspunkt des AI Act ist die regulatorische Rollenverteilung. Die Verordnung unterscheidet insbesondere zwischen Anbietern und Betreibern von KI-Systemen, knüpft daran jedoch sehr unterschiedliche Pflichten. Während Anbieter etwa für Risikomanagement, technische Dokumentation oder Konformitätsbewertungen verantwortlich sind, treffen Betreiber insbesondere Anforderungen an Nutzung, Überwachung und Dokumentation.

In der Praxis ist diese Zuordnung jedoch selten trivial. Gerade bei komplexen Projekten sind häufig mehrere Parteien beteiligt – etwa Modellanbieter, Integratoren, Plattformbetreiber und Endnutzer. Hinzu kommt, dass sich Rollen verschieben können. Unternehmen können auch dann als Anbieter qualifizieren, wenn sie ein System unter eigener Marke vertreiben, wesentlich verändern oder seine Zweckbestimmung anpassen.

Diese Dynamik macht deutlich, warum die vertragliche Klarstellung der Rollen keine Formalität ist, sondern eine zentrale Voraussetzung für funktionierende Compliance. Wer hier unklar bleibt, läuft Gefahr, regulatorische Pflichten zu übernehmen, ohne dies bewusst gesteuert zu haben.

Kooperation entlang der Wertschöpfungskette

Die Rollenverteilung allein reicht jedoch nicht aus. Der AI Act verlangt darüber hinaus eine strukturierte Kooperation zwischen den beteiligten Akteuren – insbesondere dort, wo mehrere Parteien zur Funktionsfähigkeit und Compliance eines Systems beitragen.

Gerade bei Hochrisiko-KI-Systemen ist der Anbieter häufig auf Informationen, Komponenten oder Unterstützung Dritter angewiesen. Damit er seine regulatorischen Pflichten erfüllen kann, müssen diese Beiträge verlässlich organisiert werden. In der Praxis bedeutet das, dass Verträge detailliert regeln müssen, welche Informationen bereitgestellt werden, welche technischen Zugänge erforderlich sind und welche Mitwirkungspflichten bestehen.

Ebenso benötigen auch Betreiber klare Vereinbarungen mit Anbietern, um ihren eigenen Verpflichtungen nachkommen zu können – etwa in Bezug auf Instruktionen, die Bereitstellung einer Betriebsanleitung, Datenkontrolle und Protokollzugriff.

Damit verschiebt sich die Funktion von Verträgen. Sie dienen nicht mehr nur der wirtschaftlichen Abgrenzung von Leistungen, sondern werden zum operativen Instrument der Compliance-Steuerung entlang der gesamten Wertschöpfungskette.

Trainingsdaten und Datennutzung als neuralgischer Punkt

Ein besonders sensibler Bereich betrifft den Umgang mit Daten. Viele KI-Systeme werden laufend weiterentwickelt, indem sie mit neuen Daten trainiert oder verbessert werden. Daraus ergibt sich eine zentrale vertragliche Frage: Was passiert mit den Daten des Kunden?

Gerade bei generativen Systemen ist es keineswegs selbstverständlich, dass Eingaben ausschließlich zur konkreten Leistungserbringung verwendet werden. Vielmehr behalten sich Anbieter häufig vor, diese Daten – zumindest in aggregierter oder anonymisierter Form – für Trainingszwecke zu nutzen. Für Unternehmen kann das erhebliche Risiken mit sich bringen, insbesondere im Hinblick auf Geschäftsgeheimnisse, personenbezogene Daten oder regulatorische Anforderungen.

Die Vertragsgestaltung muss hier klare Leitplanken setzen. Dazu gehört insbesondere die Festlegung, ob und in welchem Umfang Daten für Trainingszwecke verwendet werden dürfen, welche Formen der Anonymisierung vorgesehen sind und ob Kunden ein Widerspruchsrecht haben. In der Praxis zeigt sich, dass dieser Punkt häufig zu den zentralen Verhandlungsthemen zählt – und maßgeblich über das Risikoprofil eines KI-Projekts entscheidet.

Dynamische Systeme brauchen dynamische Vertragsmechanismen

Ein weiterer wesentlicher Unterschied zu klassischer Software liegt in der Dynamik von KI-Systemen. Modelle werden weiterentwickelt, Funktionen angepasst und teilweise auch die zugrunde liegenden Risikoprofile verändert. Updates sind daher nicht nur ein technisches, sondern auch ein rechtliches Thema.

Verträge müssen diesem Umstand Rechnung tragen. Es reicht nicht, Updates pauschal zu erlauben oder auszuschließen. Vielmehr stellt sich die Frage, wie Änderungen kommuniziert werden, ob und unter welchen Voraussetzungen Kunden ihnen widersprechen können und wie sichergestellt wird, dass regulatorische Bewertungen aktuell bleiben.

Gerade bei sensiblen Anwendungen kann es entscheidend sein, dass Änderungen transparent dokumentiert werden und ihre Auswirkungen nachvollziehbar bleiben. Andernfalls besteht die Gefahr, dass ein ursprünglich unkritisches System durch spätere Anpassungen in einen regulierten Bereich „hineinwächst“, ohne dass dies rechtzeitig erkannt wird.

Haftung und Risikoverteilung in komplexen Systemen

Mit der zunehmenden Komplexität von KI-Systemen steigt auch die Bedeutung einer klaren Risikoverteilung. Fehler können ihre Ursache in Trainingsdaten, Modellentscheidungen, Integration oder konkreter Nutzung haben. Entsprechend schwierig ist es, Verantwortlichkeiten eindeutig zuzuordnen.

Verträge übernehmen hier eine zentrale Steuerungsfunktion. Sie legen fest, wer für welche Risiken einsteht, welche Haftungsbeschränkungen gelten und in welchen Fällen Freistellungen greifen. Besonders relevant sind dabei Fragen im Zusammenhang mit der Herkunft und Qualität von Trainingsdaten sowie mit den durch das System generierten Outputs.

In der Praxis zeigt sich, dass klassische Haftungsmodelle häufig nicht ausreichen, um die Besonderheiten von KI-Systemen abzubilden. Die Vertragsgestaltung muss daher stärker differenzieren und die verschiedenen Risikosphären entlang der Wertschöpfungskette berücksichtigen.

Dies gewinnt zusätzliche Bedeutung vor dem Hintergrund der reformierten Produkthaftungs-Richtlinie (EU 2024/2853), die insbesondere Software und KI-Systeme ausdrücklich in den Haftungsrahmen einbezieht und damit neue Anforderungen an die vertragliche Risikoverteilung stellt.

Transparenz, Audit und die Grenzen der Black Box

Ein wiederkehrendes Thema in KI-Projekten ist die begrenzte Transparenz vieler Systeme. Gleichzeitig verlangt der AI Act – insbesondere bei regulierten Anwendungen – ein hohes Maß an Nachvollziehbarkeit und Kontrolle.

Für Unternehmen stellt sich daher die Frage, wie sie die Einhaltung regulatorischer Anforderungen überhaupt überprüfen können, wenn ihnen der Einblick in das System fehlt. Vertragsklauseln zu Audit- und Kontrollrechten gewinnen vor diesem Hintergrund erheblich an Bedeutung. Sie schaffen zumindest punktuell Zugang zu relevanten Informationen, etwa über Trainingsdaten, Modellverhalten oder implementierte Sicherheitsmaßnahmen.

Auch wenn vollständige Transparenz in vielen Fällen unrealistisch bleibt, wird deutlich: Ohne vertraglich abgesicherte Informations- und Kontrollrechte ist eine belastbare AI-Compliance kaum möglich.

Fazit: Vertragsgestaltung als Schlüssel zur AI-Compliance

Der AI Act verändert nicht nur regulatorische Anforderungen, sondern auch die Art und Weise, wie KI-Projekte strukturiert werden müssen. Viele Pflichten lassen sich nicht isoliert innerhalb eines Unternehmens erfüllen, sondern erfordern eine koordinierte Umsetzung entlang der gesamten Wertschöpfungskette.

Verträge werden damit zum zentralen Instrument, um diese Koordination sicherzustellen. Sie definieren Rollen, strukturieren Informationsflüsse, verteilen Risiken und schaffen die Grundlage für Transparenz und Kontrolle.

Für die Praxis bedeutet das vor allem eines: AI-Compliance beginnt nicht beim Einsatz eines Systems, sondern bereits am Verhandlungstisch – denn was nicht im Vertrag steht, lässt sich später nur schwer durchsetzen.

Wenn KI-Projekte skalieren sollen, braucht es belastbare Verträge – dabei unterstützen wir Sie gerne.