Was müssen Unternehmen jetzt beachten, um die Vorschriften der neuen europäischen KI-Verordnung einzuhalten?
Am 21. Mai dieses Jahres wurde die KI-Verordnung (AI-Act) vom Rat der Europäischen Union verabschiedet. Ziel ist es einen einheitlichen Rahmen für den Einsatz künstlicher Intelligenz in der Europäischen Union zu schaffen. Zudem stellt die KI-VO aktuell den weltweit ersten Versuch dar, ein allgemeines Regelwerk für den Einsatz von Künstlicher Intelligenz zu schaffen und ist damit durchaus ein Gesetz mit Pioniercharakter im Bereich der rechtlichen Regulierung von künstlicher Intelligenz.
Die KI- Verordnung verfolgt grundsätzlich – wie auch die Datenschutzgrundverordnung (DSGVO) – einen risikobasierten Ansatz, der KI-Systeme anhand der von ihnen ausgehenden Gefahren einstuft und an je nach Qualifikationsstufe unterschiedliche Anforderungen stellt. Im Gegensatz zur DSGVO, die ein rein risikobasiertes System verfolgt, stellt die KI-Verordnung vermehrt auch den Menschen mit seinen in der Grundrechtecharta der europäischen Union verankerten Rechten in den Vordergrund und verlangt hohe Anforderungen an ethische Standards.
KI- Systeme mit unannehmbaren Risiko (Artikel 5 KI-VO)
KI-Systeme mit unannehmbarem Risiko werden verboten. Diese werden in Artikel 5 der Verordnung behandelt. Darunter fallen beispielsweise Anwendungen die ein “social Scorring System“ wie in China ermöglichen würden oder manipulative KI-Systeme die der Verbreitung von Lügen oder Fake News dienen.
KI- Systeme mit hohem Risiko (Artikel 8-17 KI-VO)
Die Artikel 8-17 der KI-Verordnung umfassen KI-Systeme mit hohem Risiko. Darunter fallen solche Systeme, von denen eine besonders hohe Gefahr für die Gesundheit und Sicherheit oder die Grundrechte von EU-Bürger:innen befürchtet wird. Dieser Art der Risikoklasse wird letztlich auch die meiste Beachtung in der KI-Verordnung geschenkt, (vgl. Art. 6 Abs. II und III KI-Verordnung). Eine Hochrisiko-KI kann sich aus dem Einsatz in einem bestimmten Bereich ergeben (wie z.B. Beschäftigungen oder Beförderungen, Videoüberwachung etc.). Sofern ein Risiko für die Gesundheit, die Sicherheit oder die Grundrechte einer natürlichen Person ausgeht, soll eine Hochrisiko-KI vorliegen. Zudem ist zu erwähnen, dass in Art. 84 der KI-Verordnung vorgesehen ist, dass die Europäische Kommission regelmäßig überprüfen soll, ob Änderungen an dem System/der KI vorgenommen werden müssen. Damit handelt es sich also um eine Risikoprognose.
Anbieter von KI-System mit hohem Risiko müssen z.B.:
- ein Risikomanagementsystem für den gesamten Lebenszyklus des KI-Systems mit hohem Risiko einrichten und Risiken automatisch aufzeichnen
- Data Governance durchführen, um sicherzustellen, dass Schulungs-, Validierungs- und Testdatensätze relevant, ausreichend repräsentativ und so weit wie möglich fehlerfrei und vollständig sind.
- Technische Unterlagen zum Nachweis der Konformität und Bereitstellung von Informationen für die Behörden bereitstellen zur Bewertung der Konformität.
- Gebrauchsanweisungen zur Einhaltung der Vorschriften bereitstellen und die Möglichkeit schaffen, eine menschliche Aufsicht implementieren.
- ein risikoreiches System ist von den Anbietern so auszugestalten, dass es ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreicht.
- Außerdem muss ein Qualitätsmanagementsystem vorhanden sein zur Einhaltung der Vorschriften.
KI- Systeme mit geringem und minimalem Risiko
Solche KI-Systeme, die für die Interaktion mit Menschen bestimmt sind und nicht unter die Gruppe der verbotenen KI oder die der Hochrisiko-KI fallen sind als KI mit geringem und minimalem Risiko anzusehen.
KI- Systeme mit minimalem Risiko
Von einer KI mit minimalem Risiko gehen keine oder zumindest nur marginale Gefahren aus. Die KI-Verordnung sieht daher dafür auch keine besonderen Verpflichtungen vor. Diese können daher weitestgehend ohne regulatorischen Hürden betrieben und genutzt werden. Ob ein KI-System mit minimalem Risiko vorliegt muss anhand der gesetzlichen Vorgaben der KI-VO im Einzelfall beurteilt und rechtlich geprüft werden. Zudem wollen die Europäische Kommission und die Mitgliedsstaaten fördern, dass Anbieter solcher KI-Systeme Verhaltenskodizes aufstellen gemäß Art. 69 KI-Verordnung. Diese freiwillig vorgesehenen Verhaltenskodizes können auch andere Aspekte, wie z.B. ökologische Aspekte enthalten.
Transparenzpflichten
Zusätzlich müssen bei einer Interaktion von Menschen mit KI-Systemen oder bei der Erkennung von Emotionen oder anderen Merkmal durch automatisierte Mittel die betroffenen natürlichen Personen hierüber informiert werden. Diese Information muss zeitnah, klar sowie verständlich sein. Darüber hinaus gelten für bestimmte KI-Systeme – unabhängig von einer Klassifizierung als Hochrisiko-KI-System – Transparenzpflichten für Anbieter und Anwender nach der gesetzlichen Regelung des Art. 52 der KI-Verordnung. Diese werden in der Verhandlungsposition des Parlaments konkretisiert und erweitert. Transparenzpflichten sollen nicht gelten bzw. eingeschränkt gelten, sofern das betreffende KI-System gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassen ist oder erforderlich ist für die Ausübung von Grundrechten (hier insbesondere Recht auf freie Meinungsäußerung, Art. 10 EMRK, Freiheit der Kunst und Wissenschaft). Die Transparenzpflichten müssen außerdem spätestens zur Zeit der ersten Interaktion oder der ersten Auseinandersetzung mit den jeweiligen KI-Inhalten bereitgestellt werden. Hierbei ist zu berücksichtigen, dass besonders schutzbedürftige Person, hierzu zählen insbesondere Kinder oder Menschen mit Behinderung, besonders geschützt werden müssen und hierbei womöglich Kennzeichnungspflichten berücksichtigt werden müssen. Das kann die vom AI Act betroffene Unternehmen als Anbieter von solchen Systemen durchaus vor erhebliche Schwierigkeiten und Herausforderungen stellen, gerade bei rechtlichen Abgrenzungs- und Einzelfallfragestellungen
Relevanz und Auswirkungen der KI-VO auch in anderen Rechtsgebieten
KI und das Problem mit den personenbezogenen Daten sowie dem Datenschutz
Bei dem Anlernen einer KI werden häufig personenbezogene Daten verarbeitet. Das ist grundsätzlich verboten, sofern kein Erlaubnistatbestand eingreift. Daher sind im Umgang mit KI-System vielfach auch datenschutzrechtliche Aspekte mit zu berücksichtigen. In jüngster Zeit kommen in diesem Zusammenhang vielfach Fragestellungen des maschinellen Lernens (Machine Learning) auf. Dabei werden KI-Systeme/Algorithmen mit enormer Anzahl an Datensätzen trainiert, die auch personenbezogene Daten enthalten können. Insoweit spielt der Input und damit die eingegebene Datenmenge sowie die Qualität der Daten eine enorme Rolle. Je besser diese sind, desto besser wird auch das Ergebnis (Output). Die KI kann aus diesen Arbeitsmuster erkennen und selbstständig Ergebnisse produzieren. Mit den Daten wird die KI angelernt. Unabhängig von den fast grenzenlosen technischen Möglichkeiten kann die KI aber nur im gesetzlich zulässigen Rahmen angelernt werden, wofür zumindest in der EU die KI-Verordnung gilt. Bei der Verarbeitung personenbezogener Daten die datenschutzrechtlichen Anforderungen zu einzuhalten. Die KI-VO enthält deshalb auch datenschutzrechtliche Vorgaben. Die KI-VO soll aber nicht den bestehenden Datenschutz ersetzen, sondern diesen vielmehr in seinem Anwendungsbereich unberührt lassen. Die KI-VO soll diesen lediglich ergänzen. Es ist beabsichtigt, dass die Datenschutzaufsichtsbehörden die Überwachung von Hochrisiko-KI-Systemen zusätzlich zu ihren weiteren Datenschutzaufgaben übernehmen sollen. Ob dies den Datenschutzbehörden insbesondere technisch und personell möglich sein wird, bleibt abzuwarten.
KI und das Problem beim Einsatz von Legal Tech
Legal Tech und KI stehen ebenfalls in einem engen Zusammenhang. Legal Tech kann nämlich mithilfe von KI Informationen verarbeiten und z.B. in Verträge einbeziehen. Legal Tech 2.0 (automatisierte Rechtsdienstleistung) ist in der Juristerei bereits weit verbreitet. Hier geht es zumeist darum, dass eine digitalisierte Rechtsdienstleistung angeboten wird, bei der ein Anbieter mittels eines Frage-Antwort-Katalogs im Multiple-Choice-Verfahren Rechtsdokumente, über eine Software generiert. Die Software kann hierbei aufgrund der voreingetragenen Informationen Verträge erstellen. Dies könnte womöglich mit dem Rechtsdienstleistungsgesetz (RDG) kollidieren. Das RSG regelt die Erbringung von Rechtsdienstleistungen umfassend und ist daher stark reguliert. Einfallstor für die Anwendung des RSG ist der Begriff der „Rechtsdienstleistung“. Eine solche ist „jede Tätigkeit in fremden Angelegenheiten, sobald sie eine rechtliche Prüfung des Einzelfalls erfordert“. Damit einher geht die Frage, ob der Einsatz eines Vertragsgenerators als unerlaubte Rechtsdienstleistung iSv § 2 Abs. 1 RDG gilt. Dies ist nach der Rechtsprechung nicht der Fall. Daher darf ein Vertragsgenerator auch von Personen und Unternehmen eingesetzt werden, die keine Anwaltszulassung besitzen.
Die Legal Tech-Erfolgsserie setzt sich immer stärker durch und spielt auch in Legal Tech 3.0 eine überragende Rolle. Bei Legal Tech 3.0 spielt künstliche Intelligenz eine verstärkte Rolle. Legal Tech 3.0 zeichnet sich durch eine verstärkte Hinzunahme von KI und Machine Learning aus. Hiervon umfasst sind z.B. Smart contracts., also die “intelligente” Vertragserstellung mit Unterstützung durch künstliche Intelligenz. Bei Vertragsgeneratoren spielt KI ebenfalls eine Rolle spielen und hierbei zum Einsatz kommen. Fragen zu einer zulässigen oder unzulässigen Tätigkeit im Rahmen des Rechtsdienstleistungsgesetzes (RDG) durch eine verstärkte Einbeziehung von KI dürften in Zukunft noch relevanter werden. Dadurch ergeben sich gerade auch für Legal-Tech-Plattformen durch die KI-Verordnung verstärkt rechtliche Fragestellungen, die es zu beleuchten und zu lösen gilt.
Aktuelle Rechtsprechung
KI kann insbesondere auch in Bezug zu dem Urheberrecht relevant werden. In Deutschland und den USA kann einer KI zumindest derzeit keine Urheberschaft zukommen. Zudem wird nach dem deutschen Urheberrecht eine urheberrechtliche Schutzfähigkeit von Texten von einer KI aktuell abgelehnt. Der deutsche Ansatz verlangt, dass das urheberrechtlich geschützte Werk eine persönlich geistige Schöpfung einer natürlichen Person sein muss (vgl. §§ 2 Absatz 2, 7 und 8 UrhG). Anders ist es aber, wenn die KI nur als Hilfsmittel angesehen wird und das Werk nicht selbstständig, ohne menschliche Hilfe, erstellt hat. Auch hier werden sich in Zukunft viele rechtliche Einzelfragen ergeben, die rechtlich zu prüfen, einzuordnen und zu beantworten sind.
In China hingegen wurde eine Urheberschaft einer KI bereits in einzelnen Fällen bejaht. So wurde die Urheberschaft an einem KI-generierten Bild als Kunstwerk bejaht.
KI in der Justiz
KI wird in der Justiz in Pilotprojekten bereits zur Sortierung von elektrischen Verfahrensakten genutzt. Dabei werden wiederkehrende Merkmale schematisch analysiert und mit solchen gleich gelagerten Sachverhalten einander zugeordnet. Dies soll perspektivisch zu einer Entlastung der Gerichte führen. Auch in generativen juristischen Sprachmodellen wird der Einsatz von KI erprobt. Die Bundesländer Nordrhein-Westfalen und Bayern entwickeln und erproben gemeinsam ein juristisches Sprachmodell im Rahmen eines Forschungsprojektes. Das Ziel ist langfristig den Zugang zum Recht vereinfachen und gleichzeitig die durch Massenverfahren und neue Kriminalitätsphänomene stark geforderten Gerichte zu entlasten. Auch gibt es Bestrebungen mehr Urteile anonymisiert zu veröffentlichen. Mit der Hilfe von KI können Gerichtsentscheidungen leichter, schneller und in größerem Umfang anonymisiert werden. Denn der Grund dafür, dass viele Urteile nicht veröffentlicht werden, ist, dass bisher vollständig händisch bei den Gerichten mit erheblichen Personalaufwand für die Gerichte diese Anonymisierung stattfindet. Daher werden viele Urteile nicht veröffentlicht ist häufig Personalnot in der Justiz und mangelnde technische Ausstattung. Hier kann die KI für Abhilfe sorgen. Jedoch kann die KI hier Fehler machen und ein Fehler bei der Anonymisierung unterlaufen. Dies ist kürzlich der freien Datenbank Openjur passiert. Diese soll nun für einen Gerichtsfehler haften. Ob dies tatsächlich so kommt, bleibt abzuwarten und spannend.
Die Einzelnen Pflichten der KI Verordnung
Risikomanagementsysteme nach Art. 9 KI-VO
Anbieter sind verpflichtet ein Risikomanagementsystem einzurichten, anzuwenden, zu dokumentieren und aufrechtzuerhalten. Dies soll kontinuierlich während der gesamten Dauer des Bestands des KI-Systems fortgeführt werden. Konkret meint dies, dass alle bekannten sowie vorhersehbaren Risiken ermittelt und analysiert werden müssen. Darüber hinaus ist in Art. 61 der KI-VO vorgesehen, dass Anbieter auch ein System zur Beobachtung eines KI-Systems nach dessen Inverkehrbringen einrichten müssen.
Datenmanagement, Art. 10 KI-VO
Sofern für die Entwicklung des KI-Systems Daten verwendet werden, müssen diese die Anforderungen aus Art. 10 III und IV KI-VO erfüllen. Wichtig ist, dass diese Pflichten nicht nur erfüllt werden müssen, wenn personenbezogene Daten verarbeitet werden, sondern diese Pflichten können bereits im Vorfeld, bei z.B. Trainingsdaten, bestehen. Die Daten müssen nach Art. 10 III S. 1 KI-VO nachweisbar relevant, repräsentativ, fehlerfrei und vollständig sein.
Dokumentationspflichten. Art. 11 KI-VO
Unternehmen, die KI-Systeme auf den Markt bringen oder nutzen, werden gesetzlich durch die KI-VO zur technischen Dokumentation verpflichtet. Im Anhang IV zur KI-Verordnung finden sich dazu nähere Erläuterungen, welche Anforderungen an die Dokumentation zu stellen sind. Exemplarisch sind hier die Zweckbestimmung, die Methoden und eine detaillierte Beschreibung des Risikomanagementsystems nach Art. 9 KI-VO. Zu beachten ist, dass die EU-Kommission nach Art. 11 III KI-VO die Befugnis erhalten soll, die in Anhang IV genannten Vorgaben nach möglichen technischen Fortschritten anzupassen.
Aufzeichnungspflichten, Art. 12 KI-VO
In Art. 12 der KI-VO sind Aufzeichnungspflichten festgehalten, die eine automatische Protokollierung der Vorgänge und Ereignisse während des Betriebs der KI-Systeme vorsehen. Zweck hierbei ist die Funktionsfähigkeit der KI-Systeme über den gesamten Zeitraum zurückverfolgen zu können.
Transparenz- und Instruktionspflichten, Art. 13 KI-VO
Der Betrieb der KI-Systeme soll möglichst transparent sein. KI-Systeme sollen zudem mit digitalen Gebrauchsanweisungen versehen werden. Diese sollen vollständige, korrekte, eindeutige sowie barrierefreie zugängliche Informationen für die Nutzer von KI-Systemen enthalten.
Menschliche Aufsicht, Art. 14 KI-VO
KI-Systeme müssen so konzipiert werden, dass sie während der gesamten Dauer ihrer Verwendung wirksam von Menschen beaufsichtigt werden können. In den Betrieb einer KI sollte daher jederzeit eingegriffen werden können und damit notfalls vollständig beendet werden können. Dieser Artikel in der KI-VO spiegelt damit den oben genannten menschenzentrierten Ansatz der Verordnung wider.
Genauigkeit, Robustheit und Cybersicherheit, Art. 15 KI-VO
Hierdurch soll gewährleistet werden, dass Hochrisiko-Systeme so konzipiert und entwickelt werden, dass sie im Hinblick auf ihre Zweckbestimmung ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen nach Art. 15 KI-VO. Außerdem sollen sie während ihres gesamten Lebenszyklus beständig funktionieren. Zudem wird die Widerstandsfähigkeit von Hochrisiko-Systemen hervorgehoben, die den unbefugten Zugriff Dritter zu der Verwendung oder Leistung durch Ausnutzung von Systemschwachstellen verhindern sollen nach Art. 15 IV KI-VO. Hierfür sind Anbieter von KI in der Pflicht ein ausreichendes Maß an Cybersicherheit zu gewährleisten. Dies kann durch organisatorische oder technische Maßnahmen erfolgen.
Qualitätsmanagement, Art. 17 KI-VO
Anbieter müssen ein Qualitätsmanagementsystem einrichten nach Art. 17 KI-VO. Die Mindestanforderungen sind in Art. 17 Abs. 1 lit. a-m der KI-VO genannt.
Konformitätsbewertungsverfahren, Art. 19 KI-VO
Bevor ein Hochrisiko-KI-System auf den Markt gelangt und/oder verwendet werden, muss ein Konformitätsbewertungsverfahren nach Art. 43 KI-VO stattgefunden haben (vgl. Art. 19 I KI-VO). Hierbei sollen die in Art. 8-15 der KI-VO genannten Voraussetzungen zunächst erfüllt werden.
Festzuhalten ist:
Insgesamt legt der AI Act durch die in der KI-Verordnung enthaltenen gesetzlichen Regelungen – wie auch schon die DSGVO – und weiteren Regelungswerke der Europäischen Union, insbesondere durch sonstige EU-Richtlinien und EU-Verordnungen, wie z.B. der Anti-Entwaldungsverordnung oder dem Lieferkettengesetz, weitere komplexe und aufwändige gesetzliche Pflichten auf, die für jeden Einzelfall rechtlich zu prüfen sind, damit Unternehmen nicht gegen die Regelungen der KI-Verordnung verstoßen und insbesondere dadurch empfindliche und kostenintensive Bußgelder riskieren.
Da die KI-Verordnung sehr komplex ist, sollte im ersten Schritt immer geprüft werden, ob ein Unternehmen mit seinem Produkt überhaupt unter den AI Act fällt. Denn wenn das nicht – oder zumindest zum Teil nicht – der Fall ist, dann müssen die Regelungen der KI-Verordnung entweder zumindest teilweise nicht oder bestenfalls überhaupt nicht vom betroffenen Unternehmen beachtet werden. Das kann dem Unternehmen viel Zeit und Geld sparen.
Sofern ein von einem Unternehmen angebotenes oder genutztes Produkt unter die KI-Verordnung fällt, sollte rechtlich geprüft werden, ob Möglichkeiten bestehen, das KI-Produkt mit einem geringen oder möglichst minimalen Risiko zu konzipieren bzw. umzuändern, damit möglichst wenige Regelungen der KI-Verordnung für das KI-Produkt zu beachten sind.
Kritik an der nun beschlossenen KI-VO
Die Kritik ließ nicht lange auf sich warten als bekannt wurde, dass die KI-VO nun endgültig beschlossen worden ist. Die Industrie bemängelte oder befürchtet, dass die KI-VO Innovationen ausbremsen könnte und den Markt den USA oder China überlassen werden könnte, die zumindest bisher keine regulatorischen Anforderungen an die KI stellen. Der Digitalverband Bitkom kritisierte, dass die KI-VO nicht alle wesentlichen Fragen regelt. Zudem dürfte der Gesetzgeber aufgrund der Schnelligkeit von KI und neuen Technologien nicht annähernd mithalten und wird dauerhaft gefordert sein. Hier bleibt die weitere Entwicklung zunächst abzuwarten.
Fazit – weiterer (zeitlicher) Ablauf und wichtig für die Zukunft
Die KI-Verordnung wird voraussichtlich im Sommer 2024 in Kraft treten. Ab diesem Zeitpunkt beginnt ein gestuftes System zu laufen. Zunächst treten 6 Monate nach Inkrafttreten der KI- Verordnung die Vorschriften über Systeme mit unannehmbarem Risiko in Kraft. Diese werden dann vollständig verboten und ihre Nutzung muss eingestellt werden, da die Nutzung dann per Gesetz untersagt und nicht erlaubt ist. Unternehmen die derartigen Systeme aktuell noch nutzen ist bereits jetzt geraten sich darauf einzustellen und auf Alternativen umzustellen. Auch diese Alternative muss aber die geltenden Gesetze beachten, also insbesondere die DSGVO und den AI Act.
24 Monate nach Inkrafttreten der Verordnung, voraussichtlich Ende 2026, treten dann auch die übrigen Regelungen in Kraft. Für Systeme mit hohem Risiko ist eine abweichende Frist von 36 Monaten, demnach Ende 2027, vorgesehen.
Insbesondere Unternehmen ist deshalb zu raten, sich bereits rechtzeitig vor dem endgültigen Inkrafttreten der KI-Verordnung datenschutzkonform aufzustellen, um die Anforderungen des AI Acts besser und gesetzeskonform erfüllen zu können. Letztlich entwickelt die KI-Verordnung die bereits durch die Datenschutzgrundverordnung (DSGVO) aufgestellten Grundsätze und Parameter weiter. Denn während die DSGVO regelmäßig nur personenbezogene Daten betrifft, erfasst die KI Verordnung letztlich alle Daten und damit beispielsweise auch Maschinendaten.
Wer sich deshalb nicht rechtzeitig insgesamt datenschutzkonform aufstellt wird es schwer haben, die Voraussetzungen der KI-Verordnung ausreichend und rechtzeitig zu erfüllen. Hier ist daher proaktives Handeln notwendig und zu empfehlen, damit keine rechtlichen bzw. finanziellen Nachteile entstehen.
Denn bei Verstößen gegen die KI-Verordnung drohen Unternehmen Bußgelder von bis zu 35 Mio. Euro, bzw. 7% ihres weltweiten Jahresumsatzes. Die Bußgelder sind demnach sogar höher als die der DSGVO, wonach ein Bußgeldrahmen von max. 20 Mio. Euro bzw. 2-4 Prozent des weltweiten Konzernumsatzes, je nach Verstoß im Einzelfall vorgesehen ist, sodass Unternehmen penibel zur rechtzeitigen Umsetzung und Einhaltung der KI- Verordnung zu raten ist.
Aber auch für die öffentliche Hand, insbesondere bei Behörden, Städte, Gemeinden, Verwaltungen und Vergabestellen wird die KI-Verordnung als europäische Vorgabe im Rahmen von Ausschreibungen und IT-Beschaffungen in Zukunft eine verstärkte Rolle spielen. Themen wie Künstliche Intelligenz werden neben beispielsweise der Nachhaltigkeit bei der IT-Beschaffung in Zukunft eine zentralere Stellung einnehmen. Daher sollte bereits bei der Konzeption der Ausschreibung und insbesondere der Erstellung des Leistungsverzeichnisses darauf geachtet werden, dass die zu beschaffenden IT-Komponenten auch gesetzeskonform im Einklang mit den Anforderungen der KI-Verordnung bei Vergabeprojekten rechtzeitig berücksichtigt werden. Dies kann z.B. dann ein Thema werden, wenn eine bestehende Software als aktuellere Version beschafft werden muss und die aktuelle Software bereits KI-Komponenten enthält, auf die der Administrator oder Nutzer nur bedingte Einflussmöglichkeiten hat.
Gerne stehen wir ihnen beratend zur Seite bei der Umsetzung der KI Verordnung in ihrem Unternehmen oder ihrer Behörde.