BTL Rechtsanwälte
Denken. Schützen. Handeln.
Logo BTL Rechtsanwälte dark
  • Kanzlei
    ▼
    • Über uns
    • Philosophie
  • Akademie
    ▼
    • Datenschutz-Schulung
    • Datenschutzbeauftragter-Schulung
    • KI-Schulung
  • Rechtsgebiete
    ▼
    • Datenschutzrecht
    • IT-Recht
      ▼
      • Begleitung von IT-Projekten
      • Gestaltung von IT-Verträgen
      • EVB-IT-Cloud-Vertrag
      • Rechtsberatung App-Entwicklung
      • Rechtsberatung für Online-Shops
    • KI-Recht
    • IT-Vergaberecht
    • Medienrecht
      ▼
      • Social Media Beratung
      • Negative Bewertungen im Internet
      • Bewertungsportale
      • Presse- und Rundfunkrecht
      • Vertretung von Prominenten
    • Markenrecht
      ▼
      • Markenanmeldung
      • Markenwiderspruch
      • Markenüberwachung
      • Markenrechtsverletzung
      • Unterlassungserklärungen
      • Schutz vor Produktpiraterie
    • Designrecht
    • Wettbewerbsrecht
      ▼
      • Beratung bei Wettbewerbsverstößen
      • Abwehr von Abmahnungen
      • Prüfung von Unterlassungserklärungen
      • Vertretung gegenüber Abmahnverbänden
      • Marketing- und Werbemaßnahmen
    • Urheberrecht
      ▼
      • Foto- und Filmrecht
      • Modelrecht
      • Künstler- und Labelverträge
    • Vertragsrecht
      ▼
      • Handelsvertreter- und Vertriebsverträge
      • Kauf- und Werkverträge
  • Team
  • Kooperationen
  • Blog
  • Kontakt

Home > Blog > Urheberrecht in der EU-KI-Verordnung: Neue Pflichten für Anbieter generativer KI-Systeme

Datenschutzerklärung
Author Rechtsanwalt Dr. Tobias Beltle

Urheberrecht in der EU-KI-Verordnung: Neue Pflichten für Anbieter generativer KI-Systeme

Veröffentlicht am17. Oktober 202517. Oktober 2025 Categories Blog

Urheberrecht trifft EU AI Act: Was GPAI-Betreiber und Nutzer jetzt beim Einsatz und der Anwendung Künstlicher Intelligenz beachten müssen

Der EU AI Act ist mehr als ein technisches Gesetz – er legt für GPAI (= General Purpose AI bzw. ein KI-System mit allgemeinem Verwendungszweck) klare Leitplanken beim Umgang mit urheberrechtlich geschützten Trainingsdaten fest. Für Betreiber und Nutzer steigen damit die Risiko-Anforderungen; je nach Einsatz können sogar Hochrisiko-Konstellationen im Ökosystem relevant werden. Ein Verhaltenskodex für Unternehmen hilft, Pflichten zu operationalisieren und die Anwendung generativer Intelligenz rechtssicher zu gestalten. Systeme wie ChatGPT zeigen, wie schnell sich Anwendung und Einsatz von KI verbreiten und wie wichtig klare Bestimmungen zur Nutzung urheberrechtlich geschützter Inhalte sind. Bei der Anwendbarkeit der KI-VO auf GPAI-Modelle sind auch Grundrechte (z. B. Informationsfreiheit, Eigentum) mitzudenken – als Leitplanken zwischen Innovation und Schutz.

Das Wichtigste in Kürze

Lesezeit: ca. 5 Minuten

  • GPAI & EU AI Act: Modelle mit allgemeinem Verwendungszweck (GPAI) unterliegen eigenständigen Pflichten des EU AI Act/Gesetz – zusätzlich zu urheberrechtlichen Regeln.
  • Risikoblick schärfen: Je nach Einsatz/Anwendung können Schnittstellen zu Hochrisiko-Systemen bestehen (z. B. wenn GPAI ein High-Risk-System unterstützt).
  • Betreiber vs. Nutzer: Betreiber (Anbieter) verantworten Strategie, Transparenz und Prozesse; Nutzer sollten Nutzungsgrenzen und Rechtevorbehalte beachten.
  • Verhaltenskodex für Unternehmen: Branchen-Kodizes helfen, Pflichten praktikabel umzusetzen und Risiken nachweisbar zu steuern.
  • Einsatz steuern, Anwendung dokumentieren: Klare Use-Case-Freigaben, Datennachweise und Logs sichern Compliance und reduzieren Haftungs-Risiko.
  • Urheberrecht bleibt zentral: Trotz marktortbezogenem Act/Gesetz gilt: Rechtevorbehalte respektieren, Trainingsdaten kategorisieren, Zusammenfassungen bereitstellen.
  • Künstliche Intelligenz verantwortungsvoll nutzen: Technische und organisatorische Maßnahmen (TOMs) für generative Intelligenz

Das Urheberrecht steht im Zentrum der aktuellen Diskussion um Künstliche Intelligenz. Mit der EU-KI-Verordnung (KI-VO) werden erstmals verbindliche urheberrechtliche Vorgaben geschaffen, die unmittelbar auf die Nutzung geschützter Werke im Rahmen des Trainings von KI-Modellen abzielen. Hintergrund ist die Erkenntnis, dass generative KI-Systeme, insbesondere Large Language Models (LLMs), regelmäßig auf urheberrechtlich geschützte Texte, Bilder oder Musik zugreifen, um ihre Leistungsfähigkeit zu entwickeln.

Damit hat der europäische Gesetzgeber einen Paradigmenwechsel eingeleitet: Das bislang primär auf nationale Territorien beschränkte Urheberrecht wird durch die KI-VO in einen europäischen, marktortbezogenen Kontext gestellt. Ziel ist es, die Interessen von Urhebern, Künstlern und Rechteinhabern effektiv zu schützen und zugleich den Fortschritt generativer KI nicht auszubremsen.

Für Anbieter von KI-Modellen bedeutet dies, dass urheberrechtliche Fragestellungen künftig nicht nur Randaspekte sind, sondern zu einem zentralen Bestandteil ihrer Compliance-Strategie werden. Wer seine Modelle im europäischen Markt anbieten möchte, muss nachweisen können, dass die Rechte Dritter im Training gewahrt wurden, eine Pflicht, die erhebliche organisatorische, technische und wirtschaftliche Konsequenzen mit sich bringt.

Für die praktische Anwendbarkeit der einschlägigen Bestimmungen knüpft die KI-VO an das Angebot im Binnenmarkt an; die Vorschriften gelten also unabhängig vom Ort des Trainings, sobald ein System in der EU bereitgestellt wird.

 

Inhaltsverzeichnis

Urheberrecht trifft EU AI Act: Was GPAI-Betreiber und Nutzer jetzt beim Einsatz und der Anwendung Künstlicher Intelligenz beachten müssen

Integration des Urheberrechts in die EU-KI-Verordnung

Pflichten der Anbieter von KI-Modellen mit allgemeinem Verwendungszweck

Territorialität des Urheberrechts und Marktortprinzip der KI-VO

Rechtsdurchsetzung

Praktische Auswirkungen der KI-VO: Handlungsempfehlungen für Anbieter

Fazit

Integration des Urheberrechts in die EU-KI-Verordnung

Die Aufnahme urheberrechtlicher Regelungen in die KI-VO erfolgte spät und war das Ergebnis intensiver Verhandlungen. Ausgangspunkt war der Konflikt zwischen dem Bedürfnis nach Datenzugang für die Entwicklung leistungsfähiger Modelle einerseits und der Notwendigkeit, Urheberrechte effektiv durchzusetzen, andererseits.

Während der Kommissionsentwurf zunächst stark an konkreten Use-Cases orientiert war, wurde in den Schlussverhandlungen deutlich, dass insbesondere generative KI-Systeme wie LLMs nicht adäquat erfasst waren. Zugleich hat die Entwicklung generativer Systeme das Urheberrecht vor grundlegende Probleme gestellt: Einerseits geht es um die Frage, ob das Training mit urheberrechtlich geschützten Inhalten bestehende Rechte verletzt, ein Thema, das bereits in Literatur und ersten gerichtlichen Verfahren diskutiert wird. Andererseits besteht erhebliche Unsicherheit darüber, ob KI-generierte Inhalte selbst als schutzfähig gelten können und in welchem Umfang ihnen urheberrechtlicher Schutz zukommt. Klar ist: Die KI-VO setzt erste Leitplanken, löst jedoch nicht alle offenen Fragen. Die Diskussion über den angemessenen Umgang mit diesen Herausforderungen wird auch nach Inkrafttreten der Verordnung weitergehen.

Der Gesetzgeber entschied sich deshalb für die Integration spezifischer Vorgaben in Art. 53 KI-VO, die die urheberrechtliche Dimension erstmals systematisch berücksichtigen.

Daneben bleiben unionsrechtliche Grundlagen relevant, insbesondere die Richtlinie über das Urheberrecht im digitalen Binnenmarkt (DSM-RL) mit der TDM-Schranke und dem Rechtevorbehalt; nationale Umsetzungen (z. B. § 44b UrhG) bestimmen die zulässige Nutzung wesentlich mit. Beim Training können zudem technische Vervielfältigungsakte (z. B. Caching, Kopien beim Crawlen) anfallen, die urheberrechtlich einzuordnen sind.

Praxis-Einschub: Wer Chatbots, Übersetzungsprogramme oder Bildgeneratoren entwickelt, muss schon beim Training der KI darauf achten, dass nicht nur die Technik funktioniert, sondern auch die Urheberrechte eingehalten werden. Ein Beispiel: Bei großen Sprachmodellen ist zu klären, ob und unter welchen Ausnahmen (TDM-Schranke/Opt-out) Trainingskopien zulässig sind.

Pflichten der Anbieter von KI-Modellen mit allgemeinem Verwendungszweck

Mit Art. 53 KI-VO werden erstmals konkrete Pflichten für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck festgelegt. Diese reichen von der Bestimmung, wer überhaupt als Anbieter gilt, über die Verpflichtung zur Einführung einer Urheberrechtsstrategie bis hin zu Transparenzanforderungen hinsichtlich der beim Training verwendeten Daten. Ziel ist es, sicherzustellen, dass bereits die Entwicklung und Bereitstellung von KI-Modellen im Einklang mit den urheberrechtlichen Vorgaben der Union erfolgt.

Adressatenkreis: Für wen gelten die urheberrechtlichen Vorgaben der KI-VO?

Die in Art. 53 KI-VO niedergelegten urheberrechtlichen Vorgaben richten sich an Anbieter von KI-Modellen mit allgemeinem Verwendungszweck (Art. 3 Nr. 3, Nr. 63 KI-VO). Als Anbieter gilt nach der Legaldefinition derjenige, der ein Modell entwickelt oder entwickeln lässt und dieses unter eigener Bezeichnung in Verkehr bringt (Art. 3 Nr. 9 KI-VO) oder in Betrieb nimmt (Art. 3 Nr. 11 KI-VO).

Erfasst werden ausdrücklich auch Anbieter, die ihre Modelle unter einer freien oder offenen Lizenz bereitstellen. Denn die in Art. 53 Abs. 2 KI-VO vorgesehene Ausnahme für Open-Source-Modelle bezieht sich nicht auf die urheberrechtlichen Verpflichtungen; dies wird in Erwägungsgrund 104 KI-VO klargestellt. Eine pauschale Befreiung für kleine und mittlere Unternehmen (KMU) besteht ebenfalls nicht. Vielmehr sieht die Verordnung lediglich vereinfachte Verfahren vor (Erwägungsgrund 109 KI-VO). Deren nähere Ausgestaltung erfolgt über den Praxisleitfaden nach Art. 56 KI-VO, der KMU von bestimmten Detailanforderungen entlastet. Bis zur Einführung harmonisierter Normen gilt die Befolgung dieses Leitfadens als Nachweis dafür, dass die Pflichten aus Art. 53 Abs. 1 KI-VO erfüllt sind (Art. 53 Abs. 4 KI-VO). Vollständig ausgenommen sind nur natürliche Personen, die Modelle ausschließlich zu nicht-beruflichen Zwecken oder zu Forschungszwecken entwickeln (Erwägungsgrund 109 KI-VO). Damit ist die Anwendbarkeit der Vorschriften weit, echte Ausnahmen sind eng gefasst und betreffen vor allem nicht-professionelle bzw. Forschungsnutzungen.

Praktische Schwierigkeiten können in Konstellationen entstehen, in denen ein KI-Modell von nachgelagerten Akteuren weiterbearbeitet oder etwa durch Finetuning für spezielle Anwendungen angepasst wird. In solchen Fällen kann eine eigene Anbietereigenschaft der nachfolgenden Akteure begründet werden. Der Einwand, dass diese Anbieter die urheberrechtlichen Pflichten mangels Zugriffs auf das ursprüngliche Modell nicht erfüllen könnten, greift allerdings zu kurz: Nach Erwägungsgrund 109 Abs. 3 KI-VO sind die Pflichten aus Art. 53 Abs. 1 lit. c und d KI-VO auf die jeweils selbst durchgeführten Trainingsschritte beschränkt.

Pflicht zur Urheberrechtsstrategie nach Art. 53 KI-VO

Art. 53 Abs. 1 lit. c KI-VO verpflichtet Anbieter zur Einführung einer „Strategie zur Einhaltung des Urheberrechts der Union“. Die Vorschrift ist bewusst offen formuliert, sodass Raum für branchenspezifische Konkretisierungen bleibt. Klar ist jedoch:

  • Die Strategie muss sicherstellen, dass Rechtevorbehalte beim Text- und Data-Mining (Art. 4 Abs. 3 DSM-RL, § 44b Abs. 3 UrhG) eingehalten werden.
  • Der Einsatz „modernster Technologien“ wird ausdrücklich gefordert.

Nach dem aktuellen Entwurf des Praxisleitfadens (Art. 56 KI-VO) umfasst dies u.a.:

  • Due Diligence beim Erwerb von Datensätzen,
  • Zusicherungen der Datenlieferanten,
  • Einhaltung von robots.txt-Anweisungen,
  • Ausschluss urheberrechtswidriger Quellen (z.B. Piracy-Websites),
  • sowie interne Zuständigkeiten und Ansprechpartner für Rechteinhaber.

Praxis-Einschub: Ein Anbieter, der ein LLM mit Daten aus wissenschaftlichen Publikationen trainiert, muss regelmäßig nachweisen können, dass die genutzten Inhalte rechtmäßig zugänglich waren und Rechtevorbehalte berücksichtigt wurden. Diese Anforderungen konkretisieren die Vorschriften der KI-VO und ergänzen die urheberrechtlichen Bestimmungen aus DSM-Richtlinie und UrhG. Das gilt ausdrücklich auch für dialogbasierte GPAI-Dienste wie ChatGPT, bei denen Rechtevorbehalte und TDM-Opt-outs beim Datenerwerb nachweisbar zu berücksichtigen sind.

Transparenzpflicht: Zusammenfassung der Trainingsdaten nach Art. 53 KI-VO

Zusätzlich verlangt Art. 53 Abs. 1 lit. d KI-VO die Veröffentlichung einer hinreichend detaillierten Zusammenfassung der beim Training verwendeten Daten. Diese soll „allgemein, weitreichend und nicht technisch detailliert“ sein, um einerseits Geschäftsgeheimnisse zu schützen, andererseits Rechteinhabern die Rechtsdurchsetzung zu erleichtern. Im Gegensatz zur Dokumentation an die zuständigen Behörden gem. Art. 53 Abs. 1 lit. a KI-VO muss diese Zusammenfassung also weniger ausführlich erfolgen.

Konkret bedeutet dies eine Auflistung wesentlicher Datenquellen (z.B. öffentliche Datenbanken, große private Datensätze) sowie erläuternde Angaben zu sonstigen Quellen.
Im Bereich der Bildlizenzen stellt dies eine besondere Herausforderung dar: Wenn Modelle mit umfangreichen Bilddaten trainiert wurden, müssen diese zumindest auf Ebene der Datenkategorien kenntlich gemacht werden, um Rechteinhabern den Zugang zu Informationen zu ermöglichen. Die Übersicht unterstützt Rechteinhaber dabei, unzulässige Nutzung oder technische Vervielfältigungsvorgänge im Training besser zu identifizieren; gleichzeitig wahrt sie Ausnahmen und Geschäftsgeheimnisse durch ihre eher kategoriale Anlage.

Territorialität des Urheberrechts und Marktortprinzip der KI-VO

Der räumliche Anwendungsbereich der urheberrechtlichen Regelungen ist komplex. Das klassische Urheberrecht bleibt dem Territorialitätsprinzip verhaftet: Schutzwirkungen bestehen nur innerhalb eines bestimmten Staates, und nur Handlungen in diesem Gebiet können eine Verletzung begründen.

Die KI-VO dagegen knüpft an das Inverkehrbringen oder die Inbetriebnahme von KI-Systemen und -Modellen in der Europäischen Union an. Damit werden auch Sachverhalte erfasst, bei denen das Training eines Modells vollständig außerhalb der EU erfolgt ist, das Ergebnis aber innerhalb der Union angeboten wird.

Sinnvoll erscheint es, beide Regelungsregime klar zu trennen: Die KI-VO ist nicht Teil des Urheberrechts, sondern versteht sich als eine Art überlagernde Ordnungsebene („Meta-Regulierung“). Da sie selbst keine besonderen Vorgaben zu den grenzüberschreitenden Wirkungen enthält, ist für die urheberrechtlichen Pflichten ebenfalls vom Marktortprinzip auszugehen. Bestätigt wird diese Lesart durch Erwägungsgrund 106 Abs. 3 KI-VO: Danach ist jeder Anbieter unabhängig davon gebunden, in welchem Staat die urheberrechtlich relevanten Trainingshandlungen vorgenommen wurden – entscheidend ist allein, dass das Modell später in der EU bereitgestellt wird. In der Umsetzung sind neben der KI-VO die Bestimmungen der DSM-Richtlinie und nationale Regeln mitzudenken; zudem sind Grundrechte (z. B. Eigentum der Urheber, Informationsfreiheit) sorgfältig abzuwägen.

Praxis-Einschub: Auch wenn ein KI-Modell außerhalb der EU trainiert wurde, gelten regelmäßig die EU-Vorgaben, sobald es in Europa angeboten oder genutzt wird.

Rechtsdurchsetzung

Die urheberrechtlichen Pflichten der KI-VO werfen nicht nur Fragen der praktischen Umsetzung auf, sondern auch der Durchsetzung. Dabei ist zu unterscheiden zwischen der öffentlichen Aufsicht durch europäische und nationale Behörden einerseits und der Möglichkeit privater Akteure, Verstöße unmittelbar geltend zu machen, andererseits.

Rechtsdurchsetzung nach der KI-VO: Europäische und nationale Zuständigkeiten

Auf europäischer Ebene ist das neu geschaffene Europäische Amt für Künstliche Intelligenz (Art. 64 KI-VO) zuständig. Seine Aufgabe besteht darin, Anbieter von KI-Modellen mit allgemeinem Verwendungszweck sowie Anbieter von KI-Systemen zu überwachen, soweit diese Systeme unmittelbar auf solchen Modellen beruhen und Anbieter von Modell und System identisch sind (Erwägungsgrund 161 Abs. 2 KI-VO). Damit soll eine kohärente Aufsicht über besonders einflussreiche Marktakteure gewährleistet werden, die sowohl das Basismodell als auch das darauf aufbauende System kontrollieren.

Demgegenüber fällt die Zuständigkeit den nationalen Behörden zu, wenn ein KI-Modell von einem Dritten in ein konkretes KI-System integriert wird. In diesen Fällen überwachen die Mitgliedstaaten, ob die für das System verantwortlichen Akteure die urheberrechtlichen Vorgaben einhalten. Für Deutschland dürfte diese Rolle nach gegenwärtigem Stand die Bundesnetzagentur übernehmen.

Private Rechtsdurchsetzung bei Urheberrechtsverstößen durch KI-Systeme

Zunächst stellt sich die Frage, ob bereits einzelne Verstöße – etwa die Missachtung eines spezifischen Rechtevorbehalts – einen Verstoß gegen Art. 53 Abs. 1 lit. c KI-VO begründen, oder ob erst systematische Defizite in der Umsetzung der Urheberrechtsstrategie den Tatbestand erfüllen. Gleichzeitig ergibt sich aus Art. 53 Abs. 4 KI-VO, dass die Beachtung des Praxisleitfadens oder späterer harmonisierter Normen eine Vermutung der Rechtskonformität begründet. Werden diese Vorgaben nicht eingehalten, verlangt Art. 53 Abs. 3 S. 2 und 3 KI-VO, dass gleichwertige Verfahren angewendet werden, um dennoch die Anforderungen der Verordnung zu erfüllen.

Hinsichtlich der Möglichkeit privater Rechtsdurchsetzung verweist Erwägungsgrund 170 KI-VO darauf, dass im Unionsrecht und im nationalen Recht bereits effektive Rechtsbehelfe für natürliche und juristische Personen existieren, deren Rechte oder Freiheiten durch den Einsatz von KI-Systemen beeinträchtigt werden. Einige Stimmen folgern daraus, dass Schadensersatzansprüche lediglich aus vertraglichen Vereinbarungen erwachsen können.

Andere Stimmen sehen § 823 Abs. 2 BGB und § 3a UWG im Zusammenhang mit Art. 53 Abs. 1 lit. c, d KI-VO als Anknüpfungspunkte privatrechtlicher Ansprüche. Dies wird damit begründet, dass Art. 53 Abs. 1 lit. c und d KI-VO nicht allein dem Schutz des Marktes dienen, sondern zugleich Individualinteressen berühren. Unterstützung finden sie dabei in Erwägungsgrund 105 Abs. 1 KI-VO, der ausdrücklich die Herausforderungen betont, denen sich Künstler, Autoren und andere Kreative gegenübersehen, und die Art und Weise hervorhebt, wie ihre Werke genutzt und verbreitet werden.

Praxis-Einschub: Sollte sich diese Sichtweise durchsetzen, könnten Urheber nicht nur Behörden einschalten, sondern auf Basis der KI-Verordnung auch selbst vor Gericht ziehen, um beispielsweise eine Nutzung zu stoppen oder Schadensersatz zu verlangen.

Praktische Auswirkungen der KI-VO: Handlungsempfehlungen für Anbieter

Die neuen urheberrechtlichen Vorgaben der KI-VO werden in der Praxis erhebliche Auswirkungen auf Anbieter von KI-Modellen mit allgemeinem Verwendungszweck haben. Unternehmen müssen sich darauf einstellen, dass die Einhaltung des Urheberrechts künftig nicht nur im Hintergrund stattfindet, sondern ein zentraler Prüfstein regulatorischer Konformität wird.

  1. Interne Compliance-Strukturen aufbauen
    Anbieter sollten frühzeitig interne Prozesse etablieren, die eine systematische Dokumentation und Kontrolle des Datenzugangs sicherstellen. Hierzu gehören:
  • Benennung eines internen Verantwortlichen für Urheberrechts-Compliance,
  • Einrichtung von Prüfmechanismen zur Auswahl und Kontrolle von Trainingsdaten,
  • klare Vorgaben für die Berücksichtigung von Rechtevorbehalten (etwa bei Text- und Data-Mining).
  1. Dokumentation und Transparenz sichern
    Da Art. 53 KI-VO eine Zusammenfassung der Trainingsinhalte verlangt, sollten Anbieter bereits im Vorfeld überlegen, wie sie ihre Datenquellen kategorisieren und beschreiben können, ohne Geschäftsgeheimnisse preiszugeben. Dies gilt besonders im Bild- und Musikbereich, wo Rechteinhaber ein hohes Interesse an Nachvollziehbarkeit haben.
  2. Vertragsmanagement mit Datenlieferanten
    Verträge mit Datenlieferanten und Drittanbietern müssen künftig klarstellen, dass die gelieferten Daten rechtmäßig genutzt werden dürfen. Anbieter sollten sich Zusicherungen einholen, dass Rechtevorbehalte beachtet werden, und sich Regressmöglichkeiten für den Fall von Rechtsverletzungen sichern.
  3. Risikobewertung für Rechtsdurchsetzung
    Da sowohl Behörden als auch private Akteure eine Rolle bei der Rechtsdurchsetzung spielen werden, sollten Anbieter eine Risikoeinschätzung vornehmen:
  • Welche Bereiche sind besonders anfällig für Prüfungen durch Behörden?
  • Welche Geschäftsmodelle bergen die Gefahr von zivilrechtlichen Klagen durch Rechteinhaber?
  • Welche Schutzmaßnahmen (z.B. rechtliche Gutachten oder Audits) können im Streitfall entlastend wirken?
  1. Beobachtung der Rechtsentwicklung
    Die Diskussion über die Schutzfähigkeit KI-generierter Inhalte und die konkrete Reichweite privater Rechtsdurchsetzung ist noch nicht abgeschlossen. Anbieter müssen daher die weitere Rechtsentwicklung – insbesondere Leitfäden, harmonisierte Normen und Rechtsprechung – kontinuierlich beobachten und ihre Strategien flexibel anpassen.
  2. Ergänzend: Erstellung von unternehmensinternen KI-Richtlinien, z.B. für die Nutzung von KI durch Beschäftigte am Arbeitsplatz unter Prüfung der Frage, ob der Betriebsrat bzw. Personalrat mit involviert werden muss oder nicht.

Praxis-Einschub: Ein Unternehmen, das ein LLM in Europa bereitstellt, sollte bereits heute eine Roadmap für die Umsetzung der Art. 53-Pflichten entwickeln.

Dazu gehören neben technischen Anpassungen auch rechtliche Prüfungen und eine enge Zusammenarbeit zwischen Entwicklungsabteilung, Rechtsabteilung und externen Beratern.

Fazit

Die EU-KI-Verordnung verankert das Urheberrecht erstmals ausdrücklich im Kontext einer spezialgesetzlichen Regulierung für Künstliche Intelligenz. Für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck bedeutet dies neue, weitreichende Verpflichtungen: Die Einführung einer Urheberrechtsstrategie und die verpflichtende Offenlegung von Trainingsdaten machen deutlich, dass urheberrechtliche Aspekte künftig eine tragende Säule der Compliance darstellen.

Besonders herausfordernd ist die Verknüpfung zweier unterschiedlicher Regelungslogiken: Während das Urheberrecht traditionell an die Grenzen einzelner Staaten gebunden bleibt, folgt die KI-VO dem Marktortprinzip des Produktsicherheitsrechts. Für Anbieter entsteht daraus die komplexe Aufgabe, nationale Schutzsysteme mit einem unionsweiten, auf den Markt ausgerichteten Regelungsrahmen zu koordinieren.

Die Verordnung schafft zwar erste Leitplanken, lässt aber zentrale Fragen offen – etwa die Rechtmäßigkeit des Trainings mit geschützten Werken oder die Schutzfähigkeit KI-generierter Inhalte. Auch die Frage, in welchem Umfang private Rechteinhaber neben Behörden Ansprüche geltend machen können, wird die Praxis prägen. Klar ist jedoch: Die Rechtsdurchsetzung wird sowohl über staatliche Stellen als auch durch private Akteure erfolgen, sodass Anbieter mit einem doppelten Kontrollmechanismus rechnen müssen.

Für die Praxis bedeutet das:

Wer generative KI-Systeme in Europa bereitstellt, sollte frühzeitig in ein robustes Compliance- und Risikomanagement investieren – von der sorgfältigen Dokumentation der Datenquellen über die rechtliche Absicherung von Verträgen bis hin zur Vorbereitung auf mögliche behördliche Prüfungen und zivilrechtliche Auseinandersetzungen.

Wer generative KI-Syteme nutzt, sollte ebenfalls die Anforderungen an die Nutzung von Künstlicher Intelligenz im Unternehmen, dem Betrieb oder der Firma prüfen und insbesondere prüfen, ob Richtlinien zur Nutzung von KI im Unternehmen für Mitarbeiterinnen und Mitarbeiter erstellt bzw. aktualisiert oder optimiert werden sollten, damit künstliche Intelligenz rechtskonform entsprechend den Vorgaben des AI Acts, also der KI-Verordnung im Unternehmen genutzt werden kann.

In jedem Fall sollten betroffene Akteure, wie z.B. Entwickler, Anbieter und auch Nutzer von KI-Modellen und KI-Sytemen prüfen, ob die rechtlichen Vorgaben der KI-Verordnung, die sich insbesondere mit der Datenschutzgrundverordnung (DSGVO) und dem Urheberrecht verzahnt eingehalten werden, damit die Risiken von rechtlichen und finanziellen Nachteilen, wie insbesondere Bußgelder minimiert bzw. vermieden werden.

Unsere Kanzlei unterstützt Anbieter von KI-Modellen bei der rechtssicheren Umsetzung der neuen Pflichten – von der Entwicklung einer tragfähigen Urheberrechtsstrategie über die vertragliche Gestaltung bis hin zur Begleitung in behördlichen und gerichtlichen Verfahren. Kontaktieren Sie uns, um Ihre Compliance nach der EU-KI-VO nachhaltig und zukunftsfähig zu gestalten.

Häufig gestellte Fragen (FAQ)

 

Was ist „GPAI“ im Sinne des EU AI Act – und warum betrifft mich das?

GPAI („General Purpose AI“) bezeichnet KI-Modelle mit allgemeinem Verwendungszweck. Der EU AI Act führt dafür eigene Pflichten ein – zusätzlich zum Urheberrecht.

Bin ich „Betreiber“ oder „Nutzer“ – und was heißt das praktisch?

Betreiber (Anbieter) verantworten Strategie, Transparenz und Prozesse; Nutzer müssen Einsatzgrenzen beachten und Rechtevorbehalte respektieren.

Wann wird es „Hochrisiko“?

„Hochrisiko“ betrifft bestimmte Anwendungen/Einsätze (High-Risk-Systeme). GPAI kann relevant werden, wenn es solche Systeme speist oder integriert ist. Eine Risikoanalyse ist Pflicht.

Brauchen wir einen Verhaltenskodex für Unternehmen?

Ein Verhaltenskodex für Unternehmen schafft klare Abläufe: Datenherkunft prüfen, Rechtevorbehalte beachten, Freigaben dokumentieren, Monitoring etablieren

Was verlangt der EU AI Act zusätzlich zum Urheberrecht?

Der Act ergänzt das Urheberrecht um marktortbezogene Pflichten (Strategie, Zusammenfassungen, Governance). Ergebnis: Mehr Nachweis- und Risikomanagement für Betreiber und Nutzer.

Wie steuere ich „Einsatz“ und „Anwendung“ im Alltag?

Definieren Sie erlaubte Einsätze/Anwendungen, prüfen Sie Datenquellen, führen Sie Protokolle – so sinkt das Risiko.

Welche Rolle spielt „Künstliche Intelligenz“ im Compliance-Setup?

Verankern Sie technische und organisatorische Maßnahmen für generative Intelligenz (Filter, Guardrails, Rollen, Reviews).

Haben Sie Fragen oder benötigen Sie weitere Informationen?
Rechtsanwalt Dr. Tobias Beltle berät Sie gerne.

Rechtsanwalt Dr. Tobias Beltle ist Fachanwalt für gewerblichen Rechtsschutz, Fachanwalt für Informationstechnologierecht (IT-Recht) und Mediator. Er ist in seiner anwaltlichen Tätigkeit spezialisiert in den Bereichen des gewerblichen Rechtsschutzes und des IT-Rechts.

  • (0681) 93 88 68 20

Alle Beiträge von Rechtsanwalt Dr. Tobias Beltle anzeigen

Beitragsnavigation

← Vorheriger Beitrag Künstliche Intelligenz im HR-Bereich: Chancen und rechtliche Risiken
Blog-Themen
Ausschreibung Baden-Württemberg Barrierefreiheitsstärkungsgesetz Batteriegesetz Batterierechtsdurchführungsgesetz Bayern Betreiber Kritischer Infrastrukturen BFSG CRA Cyber Resilience Act Cybersicherheit Data Act Datenschutzrecht EU-Produkthaftungsrichtlinie eu produkthaftung eu produkthaftungsgesetz EVB-IT EVB-IT-Cloud Hamburg Hinweisgeberschutzgesetz Hinweisgeberschutzgesetz Kommunen IT-Recht IT Beschaffung KI KI im HR-Bereich KI im Personalwesen KritisV Kritis Verordnung Markenrecht Maschinenrichtlinie Maschinenverordnung Mecklenburg-vorpommern Medienrecht Mitbestimmung Betriebsrat Modelrecht Nachhaltige Vergabe Niedersachsen Rheinland-Pfalz Schwellenwerte Urheberrecht Vergabe vergaberecht Vertragsrecht Wertgrenzen Wettbewerbsrecht
Neue Beiträge
  • Urheberrecht in der EU-KI-Verordnung: Neue Pflichten für Anbieter generativer KI-Systeme
  • Künstliche Intelligenz im HR-Bereich: Chancen und rechtliche Risiken
  • ChatGPT am Arbeitsplatz: Betriebsrat und seine Mitbestimmungsrechte beim Einsatz von KI-Tools
  • KI-Training und DSGVO: So vermeiden Unternehmen Datenschutzverstöße beim Einsatz künstlicher Intelligenz
  • Hinweisgeberschutzgesetz: Diese Pflichten gelten jetzt für Städte und Gemeinden
Rechtsanwälte
  • Dr. Tobias Beltle
  • Gregor Theado
  • Samira Gassim
© 2025 BTL Rechtsanwälte Saarbrücken
  • Impressum
  • Datenschutzerklärung