Der AI Act Navigator wird derzeit aufgebaut und kontinuierlich erweitert. Wir nutzen dabei das Schwarmwissen unserer Community. Ihre Beiträge und Erfahrungen sind willkommen!





Überblick und Zielsetzung

Der AI Act Navigator bietet eine strukturierte Orientierung durch die komplexen Anforderungen des EU AI Acts. Diese Sektion unterstützt Sie bei der praktischen Umsetzung der Regulierung in Ihrem Unternehmen.



Risikobasierte Kategorisierung

Der EU AI Act verwendet eine beschreibende Risikoklassifizierung anstelle eines nummerischen oder alphanumerischen Systems. Die vier Risikostufen sind:

Im Gegensatz zu Kreditratings (z. B. AAA, BB) oder Sicherheitsklassifizierungen (z. B. ISO/EIC 62443 für IT-Sicherheit) bleibt der AI Act bei rein verbalen Beschreibungen. Dies soll die Flexibilität der Gesetzgebung gewährleisten, da sich KI-Technologien rasch weiterentwickeln.


Inakzeptables Risiko


Hochrisiko-Systeme


Begrenztes Risiko


Minimales Risiko


Weitere Infos unter: "2.3 Tools & Templates".



Compliance-Fahrplan

Schritt-für-Schritt Anleitung:

  1. Risikobewertung
  2. Anforderungsanalyse
  3. Implementierungsplanung



Konformitätsbewertung

Exaktheit und Präzision bei KI-gestützter Konformitätsbewertung

Bei der Konformitätsbewertung von KI-Systemen gemäß Artikel 43 des EU AI Acts stellt sich die fundamentale Frage: Wie präzise können KI-Systeme selbst bei der Bewertung von Compliance-Anforderungen unterstützen? Die inhärente Eigenschaft von KI, oft nur eine angenäherte Exaktheit zu liefern, steht im Spannungsverhältnis zu den strengen Präzisionsanforderungen des Normenmanagements.

Für die Praxis empfehlen wir einen hybriden Ansatz: KI-Systeme können effektiv für die Voranalyse und Strukturierung von Anforderungen eingesetzt werden, während kritische Bewertungsschritte und finale Entscheidungen einer menschlichen Überprüfung bedürfen. Die ANP-Arbeitsgruppe "Qualitätssicherung" könnte detaillierte Richtlinien erarbeiten, wann und wie KI im Konformitätsprozess eingesetzt werden kann, ohne die Genauigkeit zu kompromittieren.



Praxishilfen und Tools

Unterstützende Materialien:

  1. Dokumentationsvorlagen
  2. Checklisten
  3. Interaktive Tools

Tipp für die Praxis

Nutzen Sie den AI Act Navigator in Kombination mit der DIN/TS 92004:2024, um eine ganzheitliche Compliance-Strategie für Ihre KI-Systeme zu entwickeln.



AI Act Navigator – Fragen & Antworten

Dieser FAQ-Bereich klärt die Schulungspflichten für KI-Systeme und technische Anlagen basierend auf dem risikobasierten Ansatz der EU-KI-Verordnung (AI Act) und der Maschinenrichtlinie.

📖 Überblick

Dieser FAQ-Bereich klärt die Schulungspflichten für KI-Systeme und technische Anlagen basierend auf dem risikobasierten Ansatz des EU AI Acts und der Maschinenrichtlinie.

🆕 Neu in 2025:
Erweiterte Schulungspflichten für Hochrisiko-KI
Entscheidungsmatrix zur KI-Risikoklassifikation
Neue Praxisbeispiele zur Compliance-Umsetzung


📌 1. Welche Schulungspflichten gelten für Hochrisiko- versus begrenzte/minimale Risikosysteme?

Die Risikokategorie eines KI-Systems bestimmt die Schulungsanforderungen maßgeblich.

📝 Risikokategorien und Schulungsanforderungen

RisikoklasseSchulungspflichtMindestumfangZertifizierung & NachweiseBeispiel
Hochrisiko (Art. 6-27 AI Act, §6 Maschinenrichtlinie)✅ Ja (Pflicht)40 Std. zertifizierte AusbildungTÜV, DEKRA oder akkreditierte StellenHR-KI für Bewerberbewertung
Begrenztes Risiko (Art. 50 AI Act)🟠 Nein (Empfohlen)4-8 Std. TransparenzschulungSelbstverpflichtung, internes AuditMarketing-Chatbots
Minimales Risiko (Art. 4 AI Act)❌ Nein (Freiwillig)Technische Dokumentation & Best PracticesSelbstbewertung, keine externen AnforderungenSpamfilter, KI-gestützte Suchalgorithmen

📌 2. Entscheidungsmatrix: Einstufung von KI-Systemen

Die folgende Matrix hilft bei der Klassifikation von KI-Systemen nach AI Act.

KriteriumHochrisiko (z. B. Industrieroboter, Medizin-KI)Minimalrisiko (z. B. Spamfilter, Empfehlungssysteme)
Regulatorische AnforderungenAI Act Anhang II/III, verpflichtende PrüfungKeine regulatorischen Vorgaben
Schulungsumfang40 Std. zertifizierte Ausbildung4 Std. Online-Modul
KontrollmechanismusDreistufige Freigabeprüfung (intern, extern, regulatorisch)Selbstbewertungsbogen
DokumentationspflichtVollständige Risikobeurteilung nach DIN EN 1591-4Kurzformular zur Funktionsbeschreibung



📌 3. Praxisbeispiel aus dem ANP-Netzwerk

Ein mittelständischer Anlagenbauer implementierte ein KI-gestütztes Predictive-Maintenance-System (Risikoklasse III).

🔹 Erforderliche Maßnahmen:
80-stündige Schulung nach DIN EN 1591-4
Verpflichtende Zertifizierung durch TÜV Süd
Regelmäßige Risiko-Checks & Audits

📌 Ergebnis:
🔹 Reduzierung der Ausfallzeiten um 37%
🔹 Einsparung von 6,7x der Schulungskosten durch ROI-Analyse


📌 4. Implementierungsstrategie für Schulungskonzepte

PhaseMaßnahmenNormative Grundlage
Phase 1: RisikoprofilierungQuantitative Bewertung mittels Risikomatrix nach ISO 31000AI Act Anhang II/III
Phase 2: SchulungsdesignTheorie-Praxis-Verhältnis: 30% Normenwissen, 50% Anwendungstraining, 20% PrüfungsvorbereitungDIN EN 1591-4 Kap. 8.2.2
Phase 3: Kontinuierliche VerbesserungAuditierung nach Checkliste CL07PE63, Feedback-Integration aus ANP-ErfahrungsberichtenISO 10015 (Schulungsqualität)

📌 5. Rechtliche Konformität & Sanktionen

📌 Überwachung durch:
AI Office der EU für KI-Systeme
Aufsichtsbehörden (z. B. DGUV) für Maschinenrichtlinien
Interne Revision mit Risikokontrollmatrix

📌 Mögliche Sanktionen bei Verstößen:
Bis zu 7% des globalen Umsatzes (bei Nichteinhaltung von Schulungspflichten nach AI Act)
Regulatorische Sperrung von Hochrisiko-KI-Systemen