Der AI Act Navigator wird derzeit aufgebaut und kontinuierlich erweitert. Wir nutzen dabei das Schwarmwissen unserer Community. Ihre Beiträge und Erfahrungen sind willkommen!
Der AI Act Navigator bietet eine strukturierte Orientierung durch die komplexen Anforderungen des EU AI Acts. Diese Sektion unterstützt Sie bei der praktischen Umsetzung der Regulierung in Ihrem Unternehmen.
Der EU AI Act verwendet eine beschreibende Risikoklassifizierung anstelle eines nummerischen oder alphanumerischen Systems. Die vier Risikostufen sind:
Im Gegensatz zu Kreditratings (z. B. AAA, BB) oder Sicherheitsklassifizierungen (z. B. ISO/EIC 62443 für IT-Sicherheit) bleibt der AI Act bei rein verbalen Beschreibungen. Dies soll die Flexibilität der Gesetzgebung gewährleisten, da sich KI-Technologien rasch weiterentwickeln.
Inakzeptables Risiko
Verbotene Anwendungen gemäß Art. 5 (z.B. Social Scoring)
Umsetzungsfrist: Unmittelbar mit Inkrafttreten
Hochrisiko-Systeme
Klassifizierungskriterien nach Anhang III
Beispiele: Medizingeräte, kritische Infrastruktur
Konformitätsnachweis durch CE-Kennzeichnung erforderlich EU AI Act, Art. 43
Begrenztes Risiko
Transparenzpflichten gemäß Art. 52
Typische Anwendungen: Chatbots, Deepfakes
Minimales Risiko
Keine spezifischen Auflagen
Freiwillige Einhaltung ethischer Leitlinien empfohlen
Weitere Infos unter: "2.3 Tools & Templates".
Schritt-für-Schritt Anleitung:
Bei der Konformitätsbewertung von KI-Systemen gemäß Artikel 43 des EU AI Acts stellt sich die fundamentale Frage: Wie präzise können KI-Systeme selbst bei der Bewertung von Compliance-Anforderungen unterstützen? Die inhärente Eigenschaft von KI, oft nur eine angenäherte Exaktheit zu liefern, steht im Spannungsverhältnis zu den strengen Präzisionsanforderungen des Normenmanagements.
Für die Praxis empfehlen wir einen hybriden Ansatz: KI-Systeme können effektiv für die Voranalyse und Strukturierung von Anforderungen eingesetzt werden, während kritische Bewertungsschritte und finale Entscheidungen einer menschlichen Überprüfung bedürfen. Die ANP-Arbeitsgruppe "Qualitätssicherung" könnte detaillierte Richtlinien erarbeiten, wann und wie KI im Konformitätsprozess eingesetzt werden kann, ohne die Genauigkeit zu kompromittieren.
Unterstützende Materialien:
Nutzen Sie den AI Act Navigator in Kombination mit der DIN/TS 92004:2024, um eine ganzheitliche Compliance-Strategie für Ihre KI-Systeme zu entwickeln.
Dieser FAQ-Bereich klärt die Schulungspflichten für KI-Systeme und technische Anlagen basierend auf dem risikobasierten Ansatz der EU-KI-Verordnung (AI Act) und der Maschinenrichtlinie.
Die Einordnung in Risikoklassen bestimmt die Schulungsanforderungen maßgeblich. Hier ein Überblick:
| Parameter | Hochrisiko-Beispiel (Industrieroboter) | Minimalrisiko-Beispiel (Spamfilter) |
|---|---|---|
| Risikoklasse | Klasse IV (DIN EN ISO 12100) | Klasse I |
| Schulungsumfang | 40 Std. zertifizierte Ausbildung | 4 Std. Online-Modul |
| Kontrollmechanismus | Dreistufige Freigabeprüfung | Selbstbewertungsbogen |
| Dokumentationspflicht | Vollständige Risikobeurteilung | Kurzformular zur Funktionsbeschreibung |
Zur Risikoeinstufung gemäß AI Act Anhang II/III:
Betriebliche Kriterien:
Ein mittelständischer Anlagenbauer implementierte ein KI-gestütztes Predictive-Maintenance-System (Risikoklasse III). Die obligatorische 80-stündige Schulung nach DIN EN 1591-4 reduzierte Ausfallzeiten um 37%. Die ROI-Berechnung des ANP zeigte eine Kosteneinsparung von 6,7x gegenüber den Schulungskosten.
Die Überwachung erfolgt durch:
Bei Verstößen drohen Sanktionen bis zu 7% des globalen Umsatzes. Daher ist die Dokumentation aller Schulungsmaßnahmen gemäß ISO 10015 unerlässlich.