Page History
...
Der AI Act Navigator wird derzeit aufgebaut und kontinuierlich erweitert. Wir nutzen dabei das Schwarmwissen unserer Community. Ihre Beiträge und Erfahrungen sind willkommen!
...
| Table of Contents |
|---|
...
Überblick und Zielsetzung
Der AI Act Navigator bietet eine strukturierte Orientierung durch die komplexen Anforderungen des EU AI Acts. Diese Sektion unterstützt Sie bei der praktischen Umsetzung der Regulierung in Ihrem Unternehmen.
...
Risikobasierte Kategorisierung
Der EU AI Act verwendet eine beschreibende Risikoklassifizierung anstelle eines nummerischen oder alphanumerischen Systems. Die vier Risikostufen sind:
...
Weitere Infos unter: "2.3 Tools & Templates".
...
Compliance-Fahrplan
Schritt-für-Schritt Anleitung:
- Risikobewertung
- Selbsteinschätzungs-Tool
- Kategorisierungshilfen
- Anforderungsanalyse
- Checklisten pro Risikokategorie
- Dokumentationsvorlagen
- Implementierungsplanung
- Zeitplan-Templates
- Ressourcenplanung
...
Konformitätsbewertung
Exaktheit und Präzision bei KI-gestützter Konformitätsbewertung
Bei der Konformitätsbewertung von KI-Systemen gemäß Artikel 43 des EU AI Acts stellt sich die fundamentale Frage: Wie präzise können KI-Systeme selbst bei der Bewertung von Compliance-Anforderungen unterstützen? Die inhärente Eigenschaft von KI, oft nur eine angenäherte Exaktheit zu liefern, steht im Spannungsverhältnis zu den strengen Präzisionsanforderungen des Normenmanagements.
Für die Praxis empfehlen wir einen hybriden Ansatz: KI-Systeme können effektiv für die Voranalyse und Strukturierung von Anforderungen eingesetzt werden, während kritische Bewertungsschritte und finale Entscheidungen einer menschlichen Überprüfung bedürfen. Die ANP-Arbeitsgruppe "Qualitätssicherung" könnte detaillierte Richtlinien erarbeiten, wann und wie KI im Konformitätsprozess eingesetzt werden kann, ohne die Genauigkeit zu kompromittieren.
...
Praxishilfen und Tools
Unterstützende Materialien:
- Dokumentationsvorlagen
- Konformitätserklärungen
- Risikoanalysen
- Checklisten
- Compliance-Überprüfung
- Implementierungsschritte
- Interaktive Tools
- Risiko-Assessment
- Compliance-Tracker
Tipp für die Praxis
Nutzen Sie den AI Act Navigator in Kombination mit der DIN/TS 92004:2024, um eine ganzheitliche Compliance-Strategie für Ihre KI-Systeme zu entwickeln.
...
...
AI Act Navigator – Fragen & Antworten
Dieser FAQ-Bereich klärt die Schulungspflichten für KI-Systeme und technische Anlagen basierend auf dem risikobasierten Ansatz der EU-KI-Verordnung (AI Act) und der Maschinenrichtlinie.
📖 Überblick
Dieser FAQ-Bereich klärt die Schulungspflichten für KI-Systeme und technische Anlagen basierend auf dem risikobasierten Ansatz des EU AI Acts und der Maschinenrichtlinie.
🆕 Neu in 2025:
✔ Erweiterte Schulungspflichten für Hochrisiko-KI
✔ Entscheidungsmatrix zur KI-Risikoklassifikation
✔ Neue Praxisbeispiele zur Compliance-Umsetzung
...
📌 1. Welche Schulungspflichten gelten für Hochrisiko- versus begrenzte/minimale Risikosysteme?
Die
...
Risikokategorie eines KI-Systems bestimmt die Schulungsanforderungen maßgeblich.
...
📝 Risikokategorien und Schulungsanforderungen
...
| Risikoklasse | Schulungspflicht | Mindestumfang | Zertifizierung & Nachweise | Beispiel |
|---|---|---|---|---|
| Hochrisiko (Art. 6-27 AI Act, §6 Maschinenrichtlinie) |
...
- Pflichtschulungen für Entwickler, Betreiber und Wartungspersonal
- Mindestumfang:
- Risikomanagement nach ISO 31000
- Technische Dokumentation gemäß DIN EN 1591-4
- Betriebsspezifische Gefährdungsanalysen
- Zertifizierung durch akkreditierte Stellen (z. B. TÜV, DEKRA)
- Beispiel Maschinenbau: Schulung zur Interpretation von Schraubenkraftmessungen an Flanschverbindungen (Qualifikationsstufe 8.2.2, DIN EN 1591-4)
...
| ✅ Ja (Pflicht) | 40 Std. zertifizierte Ausbildung | TÜV, DEKRA oder akkreditierte Stellen | HR-KI für Bewerberbewertung | |
| Begrenztes Risiko (Art. 50 AI Act) |
...
- Transparenzschulungen für Endnutzer*innen
- Inhalte:
- Erkennung von KI-generierten Inhalten
- Datenschutzrechtliche Aspekte (DSGVO-Compliance)
- Empfohlene Zyklen: Jährliche Auffrischung
...
| 🟠 Nein (Empfohlen) | 4-8 Std. Transparenzschulung | Selbstverpflichtung, internes Audit | Marketing-Chatbots | |
| Minimales Risiko (Art. 4 AI Act) |
...
- Freiwillige Code-of-Conduct-Schulungen
- Fokus: Ethische Leitlinien und Best Practices
- Nachweis: Technische Datenblätter
| ❌ Nein (Freiwillig) | Technische Dokumentation & Best Practices | Selbstbewertung, keine externen Anforderungen | Spamfilter, KI-gestützte Suchalgorithmen |
...
📌 2. Entscheidungsmatrix: Einstufung von KI-Systemen
Die folgende Matrix hilft bei der Klassifikation von KI-Systemen nach AI Act.
| Kriterium | Hochrisiko (z. B. Industrieroboter, Medizin-KI) | Minimalrisiko (z. B. Spamfilter, Empfehlungssysteme) |
|---|---|---|
| Regulatorische Anforderungen | AI Act Anhang II/III, verpflichtende Prüfung | Keine regulatorischen Vorgaben |
Vergleichstabelle: Schulungsanforderungen nach Risikoklasse
| Parameter | Hochrisiko-Beispiel (Industrieroboter) | Minimalrisiko-Beispiel (Spamfilter) |
|---|---|---|
| Risikoklasse | Klasse IV (DIN EN ISO 12100) | Klasse I |
| Schulungsumfang | 40 Std. zertifizierte Ausbildung | 4 Std. Online-Modul |
| Kontrollmechanismus | Dreistufige Freigabeprüfung (intern, extern, regulatorisch) | Selbstbewertungsbogen |
| Dokumentationspflicht | Vollständige Risikobeurteilung | Kurzformular zur Funktionsbeschreibung |
Unterstützendes Material
...
| nach DIN EN 1591-4 |
...
| Kurzformular zur Funktionsbeschreibung |
...
📌 3.
...
Entscheidungsmatrix
Zur Risikoeinstufung gemäß AI Act Anhang II/III:
- Hochrisiko: Automatische Bewertungssysteme in kritischer Infrastruktur
- Minimalrisiko: Statistische Analysewerkzeuge
Betriebliche Kriterien:
- Interaktionshäufigkeit mit dem System
- Kritikalität der unterstützten Prozesse
- Regulatorische Vorgaben
- Explizite Schulungsverpflichtung in Branchennormen
- Haftungsrechtliche Erfordernisse
- Technische Komplexität
- Notwendigkeit zum Verständnis von Steuerungsalgorithmen
- Fehlerfolgenabschätzung bei Fehlbedienung
Praxisbeispiel aus dem ANP-Netzwerk
Ein mittelständischer Anlagenbauer implementierte ein KI-gestütztes Predictive-Maintenance-System (Risikoklasse III).
...
🔹 Erforderliche Maßnahmen:
✔ 80-stündige Schulung nach DIN EN 1591-4
...
✔ Verpflichtende Zertifizierung durch TÜV Süd
✔ Regelmäßige Risiko-Checks & Audits
📌 Ergebnis:
🔹 Reduzierung der Ausfallzeiten um 37%
🔹 Einsparung von 6,7x
...
der Schulungskosten durch ROI-Analyse
...
📌 4. Implementierungsstrategie für Schulungskonzepte
| Phase | Maßnahmen | Normative Grundlage |
|---|---|---|
| Phase 1: Risikoprofilierung | Quantitative Bewertung mittels |
...
| Risikomatrix nach ISO 31000 |
...
| AI Act Anhang II/III | |
| Phase 2: Schulungsdesign | Theorie-Praxis-Verhältnis |
...
| : 30% Normenwissen, 50% Anwendungstraining, 20% Prüfungsvorbereitung | DIN EN 1591-4 Kap. 8.2.2 |
...
| Phase 3: Kontinuierliche Verbesserung | Auditierung nach Checkliste CL07PE63 |
...
| , Feedback-Integration aus ANP-Erfahrungsberichten | ISO 10015 (Schulungsqualität) |
...
📌 5. Rechtliche Konformität & Sanktionen
...
📌 Überwachung
...
durch:
✔ AI Office der EU für KI-Systeme
...
✔ Aufsichtsbehörden (z. B. DGUV) für
...
Maschinenrichtlinien
✔ Interne Revision
...
mit Risikokontrollmatrix
...
📌 Mögliche Sanktionen bei Verstößen:
⚠ Bis zu 7% des globalen Umsatzes
...
(bei Nichteinhaltung von Schulungspflichten nach AI Act)
⚠ Regulatorische Sperrung von Hochrisiko-KI-Systemen
...
Offene Fragen
📌 1. Kann KI in Normenmanagement-Systemen (NMS) nachweisen, wann mit welchem Regelwerk in welchem Projekt gearbeitet wurde, z. B. für Audits?
✅ Ja, mit KI-unterstützten NMS ist das möglich:
✔ Versionssichere Archivierung: Alle verwendeten Normen werden mit Zeitstempel gespeichert.
✔ Automatische Protokollierung: Jede Nutzung von Normen wird nachvollziehbar dokumentiert.
✔ Audit-Trails: KI-generierte Nachweise ermöglichen eine revisionssichere Kontrolle.
✔ Interne & externe Standards: Neben offiziellen Normen können auch unternehmensspezifische Regelwerke integriert werden.
✔ Transparenz & Kontrolle: KI hilft bei der Dokumentation, aber die finale Verantwortung bleibt beim Menschen.
🔹 Fazit: Moderne KI-gestützte NMS sind auditfähig und ermöglichen eine klare Nachvollziehbarkeit – vorausgesetzt, sie sind korrekt implementiert.
...
📌 2. Wie kann ich sicherstellen, dass ein Nutzer eine Norm gelesen und verstanden hat?
✅ Mögliche Methoden:
| Methode | Beschreibung | Einsatzbereich |
|---|---|---|
| Digitale Bestätigung | Nutzer klickt „Gelesen & verstanden“ vor der Weiterarbeit. | Niedriges Risiko, einfache Compliance-Nachweise |
| Interaktive Tests | 3–5 Fragen zu Kernpunkten der Norm | Kritische Inhalte, Nachweis der Verständnisprüfung |
| Schulungsnachweise | Teilnahme an verpflichtenden E-Learning-Modulen mit Zertifikat | Hochrisiko-Systeme (z. B. Maschinenbau, Medizintechnik) |
| KI-Monitoring | Analyse, ob und wie lange Nutzer bestimmte Abschnitte betrachten | Adaptive Lernsysteme, kontinuierliche Audit-Prozesse |
🔹 Empfehlung: Die Kombination aus Quiz und Schulungsnachweis bietet die beste Absicherung.
...
📌 3. Kann ich alle Dokumente in eine KI hochladen und sie „laufen lassen“ – ersetzt das das Normenmanagement?
❌ Nein – KI kann unterstützen, aber nicht ersetzen.
| Problem | Beschreibung | Risiko |
|---|---|---|
| Nachvollziehbarkeit | KI liefert oft keine vollständige Begründung für ihre Ergebnisse („Blackbox-Problem“). | Hoch (z. B. Zertifizierungsprozesse) |
| Branchenspezifischer Kontext fehlt | KI kann Normen falsch interpretieren, wenn sie branchenspezifische Anforderungen nicht kennt. | Mittel (Fehlanwendung in regulierten Branchen) |
| Haftungsrisiken | Unternehmen bleiben für Compliance-Fehler verantwortlich, nicht die KI. | Sehr hoch (Regulatorische Strafen) |
📌 Praxisbeispiel: Eine KI könnte ISO 13485 (Medizinprodukte) fälschlich auf ein Bauprojekt anwenden.
🔹 Fazit: KI optimiert Normenverwaltung (z. B. durch automatische Updates oder Recherche), ersetzt aber keine kontrollierte Dokumentation und menschliche Expertise.
...
📌 4. Übersicht: Schulungspflichten nach Risikoklasse
| Risikoklasse | Schulungspflicht | Betroffene Gruppen | Beispiel | Kontrolle |
|---|---|---|---|---|
| Hochrisiko (Art. 6-27 AI Act, §6 Maschinenrichtlinie) | ✅ Ja, ab Feb 2025 (40h min.) | Entwickler, direkte Nutzer | HR-Tools (Bewerberbewertung) | Aktive Audits ab Aug 2025 |
| Begrenztes Risiko (Art. 50 AI Act) | 🟠 Nein, freiwillig (4-8h) | Nutzer (optional) | Marketing-Chatbots | Stichproben bei Verstößen |
| Minimales Risiko (Art. 4 AI Act) | ❌ Nein, freiwillig | Keine Vorgabe | Spamfilter, Suchalgorithmen | Nur bei Beschwerden |
...
📌 5. Integration in den AI Act Navigator (1.2.)
Der Q&A-Bereich wurde überarbeitet, um praxisnahe Orientierung für Normungsexperten zu bieten. Er ergänzt bestehende Themen wie Schulungspflichten und Compliance.
👉 Diskussion erwünscht: Welche weiteren Fragen sollten wir hier aufnehmen?
📌 Diskutieren Sie mit der Community! Zum Forum
...
📌 6. Microsoft Teams Chat-Version (Kurzfassung für den Alltag)
💬 Frage 1: „Kann KI in einem NMS nachweisen, wann welche Norm genutzt wurde – z. B. für Audits?“
✅ Antwort: „Ja, mit versionssicherer Speicherung, automatischen Logs & Audit-Trails. Aber: Menschliche Kontrolle bleibt essenziell!“
💬 Frage 2: „Wie stelle ich sicher, dass jemand eine Norm wirklich gelesen hat?“
✅ Antwort: „Einfach: Checkbox für ‚Gelesen‘, kurzes Quiz oder KI-Tracking. Quiz + Schulung ist die beste Lösung!“
💬 Frage 3: „Kann ich einfach alle Dokumente in eine KI laden und das Normenmanagement automatisieren?“
❌ Antwort: „Nein. KI hilft, kann aber keine Verantwortung übernehmen. Ohne menschliche Kontrolle bleibt’s riskant!“