EU-KI-Verordnung Glossar: 50+ wichtige Begriffe erklärt
Allgemeinverständliche Definitionen der wichtigsten Begriffe der EU-KI-Verordnung — KI-System, Anbieter, Betreiber, GPAI, hochriskant, Konformitätsbewertung und mehr, mit Artikelverweisen.
Die EU-KI-Verordnung führt einen umfangreichen neuen Wortschatz ein. Viele Begriffe — Anbieter, Betreiber, wesentliche Änderung, Verwendungszweck, KI-Modell mit allgemeinem Verwendungszweck — haben präzise rechtliche Bedeutungen, die sich von ihrer alltäglichen Verwendung unterscheiden. Eine Definition falsch zu lesen, kann bedeuten, ein System falsch zu klassifizieren oder eine Pflicht zu übersehen.
Dieses Glossar sammelt die wichtigsten Begriffe der Verordnung. Die Definitionen sind zur Verständlichkeit paraphrasiert, aber auf Artikel 3 der Verordnung (EU) 2024/1689 (den Definitionsartikel) oder die einschlägige Bestimmung verweisend, die den Begriff einführt. Für tiefergehenden Kontext zu einem Konzept folgen Sie den Links zu den jeweiligen Fachartikeln.
A
KI-System (AI System)
Artikel 3 Absatz 1. Ein maschinenbasiertes System, das so konzipiert ist, dass es mit unterschiedlichem Grad an Autonomie betrieben werden kann, nach der Bereitstellung Anpassungsfähigkeit zeigen kann und das für explizite oder implizite Ziele aus den Eingaben, die es erhält, Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen ableitet, die physische oder virtuelle Umgebungen beeinflussen können. Die Definition orientiert sich bewusst an der OECD-Definition, um internationale Abstimmung zu unterstützen.
Büro für Künstliche Intelligenz (AI Office)
Artikel 64. Eine Stelle innerhalb der Europäischen Kommission mit ausschließlicher Zuständigkeit für GPAI-Modellanbieter und einer zentralen Rolle bei der Koordinierung der Anwendung der Verordnung. Das Büro überwacht die Bewertung systemischer Risiken und dient als zentraler Knotenpunkt für die Compliance-Interaktion mit Anbietern von Basismodellen.
KI-Kompetenz (AI Literacy)
Artikel 3 Absatz 56. Fähigkeiten, Kenntnisse und Verständnis, die Anbieter, Betreiber und betroffene Personen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten in die Lage versetzen, einen informierten Einsatz von KI-Systemen vorzunehmen und sich der Chancen, Risiken und möglichen Schäden bewusst zu werden, die KI verursachen kann. Artikel 4 verlangt von Anbietern und Betreibern, ein ausreichendes Maß an KI-Kompetenz beim Personal sicherzustellen.
Anhang I
Listet die Unionsrechtsvorschriften, die eine Einstufung als Hochrisiko auslösen, wenn ein KI-System Sicherheitskomponente eines (oder selbst ein) Produkts ist, das von dieser Vorschrift erfasst wird. Beispiele sind die Maschinenrichtlinie, die Medizinprodukteverordnung, die In-vitro-Diagnostik-Verordnung, die Spielzeugrichtlinie und die Funkanlagenrichtlinie.
Anhang III
Listet acht Kategorien eigenständiger KI-Systeme, die nach Artikel 6 Absatz 2 als Hochrisikosysteme eingestuft werden: (1) Biometrie; (2) kritische Infrastruktur; (3) allgemeine und berufliche Bildung; (4) Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit; (5) Zugang zu und Nutzung wesentlicher privater und öffentlicher Dienstleistungen; (6) Strafverfolgung; (7) Migration, Asyl und Grenzkontrolle; (8) Rechtspflege und demokratische Prozesse.
Anhang IV
Listet den Inhalt der technischen Dokumentation auf, die ein Anbieter für ein Hochrisiko-KI-System vorbereiten muss. Siehe Anforderungen an die technische Dokumentation.
Artikel 5
Die Bestimmung, die verbotene KI-Praktiken auflistet. Seit dem 2. Februar 2025 durchsetzbar. Verstöße ziehen die höchsten Bußgelder der Verordnung nach sich (35 Mio. € / 7 % des Umsatzes).
Bevollmächtigter Vertreter (Authorised Representative)
Artikel 3 Absatz 5 und Artikel 22. Eine natürliche oder juristische Person mit Sitz in der Union, die sich durch schriftliche Vollmacht bereit erklärt hat, im Auftrag eines Nicht-EU-Anbieters die mit der Verordnung verbundenen Pflichten und Verfahren wahrzunehmen. Nicht-EU-Anbieter, die Hochrisiko-KI-Systeme auf dem EU-Markt in Verkehr bringen, müssen vor dem Inverkehrbringen einen solchen benennen.
B
Biometrische Kategorisierung (Biometric Categorisation)
Artikel 3 Absatz 40. Die Einordnung natürlicher Personen in bestimmte Kategorien anhand ihrer biometrischen Daten. Wenn eine solche Kategorisierung zur Ableitung sensibler Merkmale (Rasse, politische Meinungen, Gewerkschaftszugehörigkeit, religiöse oder weltanschauliche Überzeugungen, Sexualleben, sexuelle Orientierung) verwendet wird, ist sie nach Artikel 5 Absatz 1 Buchstabe g verboten.
Biometrische Daten (Biometric Data)
Artikel 3 Absatz 34, abgestimmt mit der DSGVO. Personenbezogene Daten, die durch spezifische technische Verarbeitung der physischen, physiologischen oder verhaltensbezogenen Merkmale einer natürlichen Person gewonnen werden und die eindeutige Identifizierung dieser Person ermöglichen oder bestätigen.
Biometrische Identifizierung (Biometric Identification)
Artikel 3 Absatz 35. Die automatisierte Erkennung der Identität einer Person durch Vergleich ihrer biometrischen Daten mit biometrischen Daten von Personen, die in einer Datenbank gespeichert sind.
Biometrische Verifizierung (Biometric Verification)
Artikel 3 Absatz 36. Die automatisierte, eins-zu-eins-Verifizierung der Identität einer Person durch Vergleich ihrer biometrischen Daten mit zuvor bereitgestellten biometrischen Daten.
C
CE-Kennzeichnung
Artikel 48 verlangt, dass Anbieter von Hochrisiko-KI-Systemen die CE-Kennzeichnung anbringen, bevor das System in Verkehr gebracht wird. Die Kennzeichnung zeigt an, dass der Anbieter erklärt, das System entspreche den geltenden Unionsrechtsvorschriften, einschließlich der KI-Verordnung. Für KI-Systeme, die in Produkte nach Anhang I integriert sind, deckt die CE-Kennzeichnung sowohl die KI-Verordnung als auch die zugrunde liegende Produktrechtsvorschrift ab.
Gemeinsame Spezifikationen (Common Specifications)
Artikel 41. Technische Spezifikationen, die die Kommission durch Durchführungsrechtsakt erlassen kann, wenn harmonisierte Normen nicht existieren oder unzureichend sind. Die Einhaltung gemeinsamer Spezifikationen führt zur Vermutung der Konformität mit den entsprechenden Anforderungen.
Konformitätsbewertung (Conformity Assessment)
Artikel 3 Absatz 20. Das Verfahren zur Feststellung, ob die Anforderungen aus Kapitel III Abschnitt 2 der Verordnung für ein Hochrisiko-KI-System erfüllt sind. Siehe Konformitätsbewertungsverfahren.
Kritische Infrastruktur (Critical Infrastructure)
Anhang III Nummer 2 erfasst KI-Systeme, die als Sicherheitskomponenten im Management und Betrieb kritischer digitaler Infrastruktur, des Straßenverkehrs oder der Versorgung mit Wasser, Gas, Wärme und Strom eingesetzt werden. Solche Systeme werden als Hochrisikosysteme eingestuft.
D
Betreiber (Deployer)
Artikel 3 Absatz 4. Eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System unter eigener Verantwortung verwendet, es sei denn, das KI-System wird im Rahmen einer persönlichen, nicht-beruflichen Tätigkeit verwendet. Betreiber haben Pflichten nach Artikel 26, einschließlich des Betriebs des Systems gemäß Gebrauchsanweisung, der Überwachung, der Sicherstellung menschlicher Aufsicht und (für einige Betreiber) der Durchführung einer Grundrechte-Folgenabschätzung.
Händler (Distributor)
Artikel 3 Absatz 7. Eine natürliche oder juristische Person in der Lieferkette, mit Ausnahme des Anbieters oder Einführers, die ein KI-System auf dem Unionsmarkt bereitstellt. Artikel 27 legt Überprüfungs- und Dokumentationspflichten für Händler fest.
E
Emotionserkennungssystem (Emotion Recognition System)
Artikel 3 Absatz 39. Ein KI-System zur Identifizierung oder Ableitung von Emotionen oder Absichten natürlicher Personen auf der Grundlage ihrer biometrischen Daten. Emotionserkennung in Arbeitsplätzen und Bildungseinrichtungen ist verboten nach Artikel 5 Absatz 1 Buchstabe f (mit eng gefassten Ausnahmen für medizinische und Sicherheitszwecke); andernorts unterliegt sie den Artikel-50-Transparenzpflichten.
EU-Datenbank (EU Database)
Artikel 71. Eine zentrale, von der Kommission betriebene Datenbank, in der Anbieter und Betreiber von Hochrisiko-KI-Systemen nach Anhang III ihre Systeme registrieren müssen, bevor sie sie in Verkehr bringen oder in Betrieb nehmen.
Europäisches Gremium für Künstliche Intelligenz (European Artificial Intelligence Board)
Artikel 65. Ein aus Vertretern jedes Mitgliedstaats zusammengesetztes Gremium, das die Kommission berät und die einheitliche Anwendung der Verordnung in der EU erleichtert.
F
Basismodell (Foundation Model)
Nicht förmlich in der Verordnung definiert. Wird häufig synonym zu KI-Modell mit allgemeinem Verwendungszweck (Artikel 3 Absatz 63) verwendet.
Grundrechte-Folgenabschätzung (Fundamental Rights Impact Assessment, FRIA)
Artikel 27. Eine Bewertung, die öffentliche Betreiber von Hochrisiko-KI-Systemen nach Anhang III Nummer 5 Buchstaben b und c (wesentliche öffentliche Dienstleistungen), Nummer 6 (Strafverfolgung) oder Nummer 7 (Migration) vor dem Einsatz des Systems durchführen müssen. Die FRIA identifiziert Risiken für Grundrechte und die Maßnahmen zur Minderung.
G
KI-Modell mit allgemeinem Verwendungszweck (General-Purpose AI Model, GPAI)
Artikel 3 Absatz 63. Ein KI-Modell, einschließlich eines KI-Modells, das mit einer großen Datenmenge unter Verwendung selbstüberwachten Lernens im großen Maßstab trainiert wurde, das erhebliche Allgemeinheit aufweist und in der Lage ist, eine breite Palette unterschiedlicher Aufgaben kompetent auszuführen — unabhängig davon, wie das Modell in Verkehr gebracht wird — und das in eine Vielzahl von nachgelagerten Systemen oder Anwendungen integriert werden kann. Siehe GPAI-Pflichten.
KI-System mit allgemeinem Verwendungszweck (General-Purpose AI System)
Artikel 3 Absatz 66. Ein KI-System, das auf einem GPAI-Modell basiert und die Fähigkeit besitzt, einer Vielzahl von Zwecken zu dienen, sowohl für die direkte Nutzung als auch zur Integration in andere KI-Systeme.
GPAI-Modell mit systemischem Risiko (GPAI Model with Systemic Risk)
Artikel 51. Ein GPAI-Modell, das hochwirksame Fähigkeiten aufweist, gemessen an den für das Training verwendeten Rechenressourcen (Vermutung oberhalb von 10^25 FLOPs) oder von der Kommission als solches eingestuft. Unterliegt zusätzlichen Pflichten nach Artikel 55: Modellevaluierung, adversariales Testen, Vorfallsmeldung und Cybersicherheit.
Need auditable AI for compliance?
Ctrl AI provides full execution traces, expert verification, and trust-tagged outputs for every AI decision.
Learn About Ctrl AIH
Harmonisierte Norm (Harmonised Standard)
Eine europäische Norm, die nach der Verordnung (EU) Nr. 1025/2012 angenommen wurde. Die Einhaltung einer harmonisierten Norm führt zur Vermutung der Konformität mit den entsprechenden rechtlichen Anforderungen. Die Kommission hat CEN-CENELEC beauftragt, harmonisierte Normen zur Unterstützung der KI-Verordnung zu entwickeln.
Hochrisiko-KI-System (High-Risk AI System)
Artikel 6 und 7. Ein KI-System, das in eine von zwei Kategorien fällt: (a) eine Sicherheitskomponente eines Produkts oder selbst ein Produkt, das unter eine in Anhang I gelistete Unionsrechtsvorschrift fällt und einer Konformitätsbewertung durch Dritte unterliegt; oder (b) ein eigenständiges KI-System, das in einem der in Anhang III genannten Bereiche verwendet wird. Unterliegt den materiellen Anforderungen der Artikel 8–15. Siehe Hochrisiko-KI-Systeme: vollständige Anforderungen.
Menschliche Aufsicht (Human Oversight)
Artikel 14. Die Anforderung, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt sein müssen, dass sie während ihrer Nutzungsdauer eine wirksame Aufsicht durch natürliche Personen ermöglichen. Siehe Anforderungen an die menschliche Aufsicht.
I
Einführer (Importer)
Artikel 3 Absatz 6. Eine natürliche oder juristische Person, die in der Union niedergelassen oder ansässig ist und ein KI-System, das den Namen oder die Marke einer außerhalb der Union niedergelassenen natürlichen oder juristischen Person trägt, in Verkehr bringt.
Verwendungszweck (Intended Purpose)
Artikel 3 Absatz 12. Die vom Anbieter beabsichtigte Verwendung eines KI-Systems, einschließlich des spezifischen Kontextes und der Bedingungen der Verwendung, wie in den vom Anbieter bereitgestellten Informationen in der Gebrauchsanweisung, in Werbe- oder Verkaufsmaterialien und -aussagen sowie in der technischen Dokumentation angegeben.
L
KI-System mit begrenztem Risiko (Limited-Risk AI System)
Nicht förmlich definiert, wird aber umgangssprachlich für KI-Systeme verwendet, die Transparenzpflichten nach Artikel 50 unterliegen, ohne als Hochrisikosystem eingestuft zu sein. Beispiele sind Chatbots, Deepfake-Generatoren und Tools zur Erzeugung KI-generierter Inhalte.
M
Bereitstellung auf dem Markt (Making Available on the Market)
Artikel 3 Absatz 10. Jegliche Lieferung eines KI-Systems oder eines GPAI-Modells zur Verteilung oder Nutzung auf dem Unionsmarkt im Rahmen einer kommerziellen Tätigkeit, sei es gegen Entgelt oder unentgeltlich.
Marktüberwachungsbehörde (Market Surveillance Authority)
Artikel 70. Eine von jedem Mitgliedstaat benannte nationale Behörde, die die Einhaltung der Verordnung überwacht, mutmaßliche Verstöße untersucht und Korrekturmaßnahmen oder Sanktionen verhängt.
N
Nationale zuständige Behörde (National Competent Authority)
Artikel 70. Die von jedem Mitgliedstaat benannte nationale notifizierende Behörde und/oder Marktüberwachungsbehörde.
Notifizierte Stelle (Notified Body)
Artikel 3 Absatz 22 und Artikel 29–39. Eine Konformitätsbewertungsstelle, die von der notifizierenden Behörde eines Mitgliedstaats benannt wurde, um Konformitätsbewertungen durch Dritte für Hochrisiko-KI-Systeme durchzuführen, sofern diese erforderlich sind.
O
Akteur (Operator)
Artikel 3 Absatz 8. Ein Sammelbegriff für Anbieter, Produkthersteller, Betreiber, bevollmächtigte Vertreter, Einführer und Händler.
P
Leistung (Performance)
Artikel 3 Absatz 18. Die Fähigkeit eines KI-Systems, seinen Verwendungszweck zu erfüllen.
Inverkehrbringen (Placing on the Market)
Artikel 3 Absatz 9. Die erste Bereitstellung eines KI-Systems oder eines GPAI-Modells auf dem Unionsmarkt.
Beobachtung nach dem Inverkehrbringen (Post-Market Monitoring)
Artikel 72. Die Pflicht der Anbieter von Hochrisiko-KI-Systemen, relevante Daten über die Leistung des Systems nach dem Inverkehrbringen während seiner gesamten Lebensdauer zu sammeln, zu dokumentieren und zu analysieren.
Anbieter (Provider)
Artikel 3 Absatz 3. Eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein GPAI-Modell entwickelt oder entwickeln lässt und es unter eigenem Namen oder eigener Marke in Verkehr bringt oder in Betrieb nimmt, sei es gegen Entgelt oder unentgeltlich.
Inbetriebnahme (Putting into Service)
Artikel 3 Absatz 11. Die Lieferung eines KI-Systems zur ersten Verwendung direkt an den Betreiber oder zur Eigenverwendung in der Union für seinen Verwendungszweck.
R
Biometrische Echtzeit-Fernidentifizierung (Real-Time Remote Biometric Identification)
Artikel 3 Absatz 42. Ein System zur biometrischen Fernidentifizierung, bei dem die Erfassung biometrischer Daten, der Vergleich und die Identifizierung ohne erhebliche Verzögerung erfolgen. Die Verwendung in öffentlich zugänglichen Räumen für Strafverfolgungszwecke ist nach Artikel 5 Absatz 1 Buchstabe h verboten, vorbehaltlich enger Ausnahmen.
Erwägungsgrund (Recital)
Nummerierte erklärende Absätze am Anfang einer EU-Verordnung, die die gesetzgeberische Begründung darlegen. Erwägungsgründe haben für sich allein keine bindende Wirkung, werden aber von Gerichten und Behörden zur Auslegung der operativen Bestimmungen herangezogen. Die KI-Verordnung hat 180 Erwägungsgründe.
Regulierungs-Sandbox (Regulatory Sandbox)
Artikel 57. Eine kontrollierte Umgebung, die von einem Mitgliedstaat eingerichtet wird, um die Entwicklung, das Training, die Erprobung und Validierung innovativer KI-Systeme für eine begrenzte Zeit vor ihrem Inverkehrbringen oder ihrer Inbetriebnahme unter behördlicher Aufsicht zu erleichtern. Jeder Mitgliedstaat muss bis zum 2. August 2026 mindestens eine Sandbox einrichten.
Biometrisches Fernidentifizierungssystem (Remote Biometric Identification System)
Artikel 3 Absatz 41. Ein KI-System zur Identifizierung natürlicher Personen, typischerweise aus der Ferne, ohne deren aktive Beteiligung, durch den Vergleich der biometrischen Daten einer Person mit den in einer Referenzdatenbank enthaltenen biometrischen Daten.
Risiko (Risk)
Artikel 3 Absatz 2. Die Kombination aus der Eintrittswahrscheinlichkeit eines Schadens und der Schwere dieses Schadens.
Risikomanagementsystem (Risk Management System)
Artikel 9. Ein fortlaufender, iterativer Prozess, der über den gesamten Lebenszyklus eines Hochrisiko-KI-Systems geplant und betrieben wird und Risiken für Gesundheit, Sicherheit und Grundrechte identifiziert, bewertet und steuert.
S
Sicherheitskomponente (Safety Component)
Artikel 3 Absatz 14. Eine Komponente eines Produkts oder eines KI-Systems, die eine Sicherheitsfunktion für dieses Produkt oder KI-System erfüllt oder deren Ausfall oder Fehlfunktion die Gesundheit und Sicherheit von Personen oder Sachen gefährdet.
Schwerer Vorfall (Serious Incident)
Artikel 3 Absatz 49. Ein Vorfall oder eine Fehlfunktion eines KI-Systems, der direkt oder indirekt zu (a) Tod oder schwerer Gesundheitsschädigung; (b) schwerwiegender und irreversibler Störung des Managements oder des Betriebs kritischer Infrastruktur; (c) Verletzung von Unionsrechtsverpflichtungen zum Schutz der Grundrechte; oder (d) schwerem Sach- oder Umweltschaden führt. Anbieter von Hochrisiko-KI-Systemen müssen schwere Vorfälle nach Artikel 73 melden.
Subliminale Techniken (Subliminal Techniques)
In Artikel 5 Absatz 1 Buchstabe a referenziert. Techniken, die unterhalb der menschlichen Bewusstseinsschwelle operieren und das Verhalten wesentlich verzerren. Verboten, wenn sie erheblichen Schaden verursachen oder dies vernünftigerweise wahrscheinlich erscheint.
Wesentliche Änderung (Substantial Modification)
Artikel 3 Absatz 23. Eine Änderung an einem KI-System, die in der ursprünglichen Konformitätsbewertung nicht vorgesehen oder geplant war, die die Einhaltung der Anforderungen in Kapitel III Abschnitt 2 berührt oder zu einer Änderung des Verwendungszwecks führt.
Systemisches Risiko (Systemic Risk)
Artikel 3 Absatz 65. Ein spezifisches Risiko für hochwirksame Fähigkeiten von GPAI-Modellen mit erheblichen Auswirkungen auf den Unionsmarkt aufgrund ihrer Reichweite oder aufgrund tatsächlicher oder vernünftigerweise vorhersehbarer negativer Auswirkungen auf die öffentliche Gesundheit, Sicherheit, öffentliche Sicherheit, Grundrechte oder die Gesellschaft als Ganzes.
T
Tests unter realen Bedingungen (Testing in Real World Conditions)
Artikel 60–61. Tests eines KI-Systems oder GPAI-Modells unter realen Bedingungen außerhalb eines Labors oder einer anderweitig simulierten Umgebung, zum Nachweis der Konformität oder zur Weiterentwicklung des Systems. Unterliegt spezifischen Schutzmaßnahmen.
Trainiertes Modell (Trained Model)
Nicht förmlich definiert. In der Verordnung verwendet, um das Ergebnis des Trainings zu beschreiben: ein Modell, das gelernte Parameter aus den Trainingsdaten gewonnen hat.
Trainingsdaten (Training Data)
Artikel 3 Absatz 29. Daten, die zum Training eines KI-Systems verwendet werden, um seine lernbaren Parameter anzupassen.
Transparenzpflichten (Transparency Obligations)
Artikel 50. Pflichten von Anbietern und Betreibern bestimmter KI-Systeme, natürliche Personen darüber zu informieren, dass sie mit einer KI interagieren (Chatbots), dass Inhalte durch KI erzeugt oder manipuliert wurden (Deepfakes) oder dass Emotionserkennung oder biometrische Kategorisierung angewandt wird.
V
Validierungsdaten (Validation Data)
Artikel 3 Absatz 30. Daten, die zur Bewertung des trainierten KI-Systems und zur Abstimmung seiner nicht lernbaren Parameter und seines Lernprozesses verwendet werden.
Wie dieses Glossar zu verwenden ist
Jeder Begriff wird so definiert, wie er in der Verordnung erscheint, nicht so, wie er manchmal informell in der KI-Branche verwendet wird. Im Zweifel über Anwendungsbereich oder Pflichten sind der operative Artikel und die Erwägungsgründe (die Auslegungskontext liefern) die maßgebliche Quelle.
Für einen strukturierten Überblick darüber, wie diese Begriffe zusammenpassen, beginnen Sie mit dem vollständigen EU-KI-Verordnung-Überblick oder dem Artikel zum Risikoklassifizierungssystem. Für die praktische Compliance übersetzt die Compliance-Checkliste für CTOs und CIOs den Wortschatz in konkrete Maßnahmen.
Frequently Asked Questions
Wo finden sich die Begriffsbestimmungen der EU-KI-Verordnung?
Was ist ein KI-System nach der EU-KI-Verordnung?
Was ist der Unterschied zwischen einem KI-System und einem KI-Modell nach der EU-KI-Verordnung?
Was bedeutet Inverkehrbringen nach der EU-KI-Verordnung?
Was ist eine wesentliche Änderung nach der EU-KI-Verordnung?
Make Your AI Auditable and Compliant
Ctrl AI provides expert-verified reasoning units with full execution traces — the infrastructure you need for EU AI Act compliance.
Explore Ctrl AIVerwandte Artikel
EU-KI-Verordnung FAQ: Antworten auf 30+ häufige Fragen
Praktische Antworten auf die häufigsten Fragen zur EU-KI-Verordnung — Anwendungsbereich, Fristen, Bußgelder, Klassifizierung, GPAI, DSGVO-Überschneidung und was Unternehmen tun müssen, um die Verordnung 2024/1689 einzuhalten.
Anhang III erklärt: Eigenständige Hochrisiko-KI-Systeme nach der EU-KI-Verordnung
Detaillierte Aufschlüsselung aller acht Kategorien eigenständiger Hochrisiko-KI-Systeme in Anhang III der EU-KI-Verordnung — Biometrie, kritische Infrastruktur, Bildung, Beschäftigung, wesentliche Dienstleistungen, Strafverfolgung, Migration und Justiz.
Umsetzung der EU-KI-Verordnung nach Ländern
Wie verschiedene EU-Mitgliedstaaten die KI-Verordnung umsetzen — nationale zuständige Behörden, regulatorische Sandkästen und länderspezifische Ansätze zur KI-Governance.