Page History
...
Dieser FAQ-Bereich klärt die Schulungspflichten für KI-Systeme und technische Anlagen basierend auf dem risikobasierten Ansatz der EU-KI-Verordnung (AI Act) und der Maschinenrichtlinie.
📖 Überblick
Dieser FAQ-Bereich klärt die Schulungspflichten für KI-Systeme und technische Anlagen basierend auf dem risikobasierten Ansatz des EU AI Acts und der Maschinenrichtlinie.
🆕 Neu in 2025:
✔ Erweiterte Schulungspflichten für Hochrisiko-KI
✔ Entscheidungsmatrix zur KI-Risikoklassifikation
✔ Neue Praxisbeispiele zur Compliance-Umsetzung
...
📌 1. Welche Schulungspflichten gelten für Hochrisiko- versus begrenzte/minimale Risikosysteme?
Die Risikokategorie eines KI-Systems bestimmt die Schulungsanforderungen maßgeblich.
📝 Risikokategorien und Schulungsanforderungen
| Risikoklasse | Schulungspflicht | Mindestumfang | Zertifizierung & Nachweise | Beispiel |
|---|---|---|---|---|
| Hochrisiko (Art. 6-27 AI Act, §6 Maschinenrichtlinie) | ✅ Ja (Pflicht) | 40 Std. zertifizierte Ausbildung | TÜV, DEKRA oder akkreditierte Stellen | HR-KI für Bewerberbewertung |
| Begrenztes Risiko (Art. 50 AI Act) | 🟠 Nein (Empfohlen) | 4-8 Std. Transparenzschulung | Selbstverpflichtung, internes Audit | Marketing-Chatbots |
| Minimales Risiko (Art. 4 AI Act) | ❌ Nein (Freiwillig) | Technische Dokumentation & Best Practices | Selbstbewertung, keine externen Anforderungen | Spamfilter, KI-gestützte Suchalgorithmen |
...
📌 2. Entscheidungsmatrix: Einstufung von KI-Systemen
Die folgende Matrix hilft bei der Klassifikation von KI-Systemen nach AI Act.
| Kriterium | Hochrisiko (z. B. Industrieroboter, Medizin-KI) | Minimalrisiko (z. B. Spamfilter, Empfehlungssysteme) |
|---|---|---|
| Regulatorische Anforderungen | AI Act Anhang II/III, verpflichtende Prüfung | Keine regulatorischen Vorgaben |
| Schulungsumfang | 40 Std. zertifizierte Ausbildung | 4 Std. Online-Modul |
| Kontrollmechanismus | Dreistufige Freigabeprüfung (intern, extern, regulatorisch) | Selbstbewertungsbogen |
| Dokumentationspflicht | Vollständige Risikobeurteilung nach DIN EN 1591-4 | Kurzformular zur Funktionsbeschreibung |
...
📌 3. Praxisbeispiel aus dem ANP-Netzwerk
Ein mittelständischer Anlagenbauer implementierte ein KI-gestütztes Predictive-Maintenance-System (Risikoklasse III).
🔹 Erforderliche Maßnahmen:
✔ 80-stündige Schulung nach DIN EN 1591-4
✔ Verpflichtende Zertifizierung durch TÜV Süd
✔ Regelmäßige Risiko-Checks & Audits
📌 Ergebnis:
🔹 Reduzierung der Ausfallzeiten um 37%
🔹 Einsparung von 6,7x der Schulungskosten durch ROI-Analyse
...
📌 4. Implementierungsstrategie für Schulungskonzepte
| Phase | Maßnahmen | Normative Grundlage |
|---|---|---|
| Phase 1: Risikoprofilierung | Quantitative Bewertung mittels Risikomatrix nach ISO 31000 | AI Act Anhang II/III |
| Phase 2: Schulungsdesign | Theorie-Praxis-Verhältnis: 30% Normenwissen, 50% Anwendungstraining, 20% Prüfungsvorbereitung | DIN EN 1591-4 Kap. 8.2.2 |
| Phase 3: Kontinuierliche Verbesserung | Auditierung nach Checkliste CL07PE63, Feedback-Integration aus ANP-Erfahrungsberichten | ISO 10015 (Schulungsqualität) |
...
📌 5. Rechtliche Konformität & Sanktionen
📌 Überwachung durch:
✔ AI Office der EU für KI-Systeme
✔ Aufsichtsbehörden (z. B. DGUV) für Maschinenrichtlinien
✔ Interne Revision mit Risikokontrollmatrix
📌 Mögliche Sanktionen bei Verstößen:
⚠ Bis zu 7% des globalen Umsatzes (bei Nichteinhaltung von Schulungspflichten nach AI Act)
⚠ Regulatorische Sperrung von Hochrisiko-KI-Systemen
...
Offene Fragen
📌 1. Kann KI in Normenmanagement-Systemen (NMS) nachweisen, wann mit welchem Regelwerk in welchem Projekt gearbeitet wurde, z. B. für Audits?
✅ Ja, mit KI-unterstützten NMS ist das möglich:
✔ Versionssichere Archivierung: Alle verwendeten Normen werden mit Zeitstempel gespeichert.
✔ Automatische Protokollierung: Jede Nutzung von Normen wird nachvollziehbar dokumentiert.
✔ Audit-Trails: KI-generierte Nachweise ermöglichen eine revisionssichere Kontrolle.
✔ Interne & externe Standards: Neben offiziellen Normen können auch unternehmensspezifische Regelwerke integriert werden.
✔ Transparenz & Kontrolle: KI hilft bei der Dokumentation, aber die finale Verantwortung bleibt beim Menschen.
🔹 Fazit: Moderne KI-gestützte NMS sind auditfähig und ermöglichen eine klare Nachvollziehbarkeit – vorausgesetzt, sie sind korrekt implementiert.
...
📌 2. Wie kann ich sicherstellen, dass ein Nutzer eine Norm gelesen und verstanden hat?
✅ Mögliche Methoden:
| Methode | Beschreibung | Einsatzbereich |
|---|---|---|
| Digitale Bestätigung | Nutzer klickt „Gelesen & verstanden“ vor der Weiterarbeit. | Niedriges Risiko, einfache Compliance-Nachweise |
| Interaktive Tests | 3–5 Fragen zu Kernpunkten der Norm | Kritische Inhalte, Nachweis der Verständnisprüfung |
| Schulungsnachweise | Teilnahme an verpflichtenden E-Learning-Modulen mit Zertifikat | Hochrisiko-Systeme (z. B. Maschinenbau, Medizintechnik) |
| KI-Monitoring | Analyse, ob und wie lange Nutzer bestimmte Abschnitte betrachten | Adaptive Lernsysteme, kontinuierliche Audit-Prozesse |
🔹 Empfehlung: Die Kombination aus Quiz und Schulungsnachweis bietet die beste Absicherung.
...
📌 3. Kann ich alle Dokumente in eine KI hochladen und sie „laufen lassen“ – ersetzt das das Normenmanagement?
❌ Nein – KI kann unterstützen, aber nicht ersetzen.
| Problem | Beschreibung | Risiko |
|---|---|---|
| Nachvollziehbarkeit | KI liefert oft keine vollständige Begründung für ihre Ergebnisse („Blackbox-Problem“). | Hoch (z. B. Zertifizierungsprozesse) |
| Branchenspezifischer Kontext fehlt | KI kann Normen falsch interpretieren, wenn sie branchenspezifische Anforderungen nicht kennt. | Mittel (Fehlanwendung in regulierten Branchen) |
| Haftungsrisiken | Unternehmen bleiben für Compliance-Fehler verantwortlich, nicht die KI. | Sehr hoch (Regulatorische Strafen) |
📌 Praxisbeispiel: Eine KI könnte ISO 13485 (Medizinprodukte) fälschlich auf ein Bauprojekt anwenden.
🔹 Fazit: KI optimiert Normenverwaltung (z. B. durch automatische Updates oder Recherche), ersetzt aber keine kontrollierte Dokumentation und menschliche Expertise.
...
📌 4. Übersicht: Schulungspflichten nach Risikoklasse
| Risikoklasse | Schulungspflicht | Betroffene Gruppen | Beispiel | Kontrolle |
|---|---|---|---|---|
| Hochrisiko (Art. 6-27 AI Act, §6 Maschinenrichtlinie) | ✅ Ja, ab Feb 2025 (40h min.) | Entwickler, direkte Nutzer | HR-Tools (Bewerberbewertung) | Aktive Audits ab Aug 2025 |
| Begrenztes Risiko (Art. 50 AI Act) | 🟠 Nein, freiwillig (4-8h) | Nutzer (optional) | Marketing-Chatbots | Stichproben bei Verstößen |
| Minimales Risiko (Art. 4 AI Act) | ❌ Nein, freiwillig | Keine Vorgabe | Spamfilter, Suchalgorithmen | Nur bei Beschwerden |
...
📌 5. Integration in den AI Act Navigator (1.2.)
Der Q&A-Bereich wurde überarbeitet, um praxisnahe Orientierung für Normungsexperten zu bieten. Er ergänzt bestehende Themen wie Schulungspflichten und Compliance.
👉 Diskussion erwünscht: Welche weiteren Fragen sollten wir hier aufnehmen?
📌 Diskutieren Sie mit der Community! Zum Forum
...
📌 6. Microsoft Teams Chat-Version (Kurzfassung für den Alltag)
💬 Frage 1: „Kann KI in einem NMS nachweisen, wann welche Norm genutzt wurde – z. B. für Audits?“
✅ Antwort: „Ja, mit versionssicherer Speicherung, automatischen Logs & Audit-Trails. Aber: Menschliche Kontrolle bleibt essenziell!“
💬 Frage 2: „Wie stelle ich sicher, dass jemand eine Norm wirklich gelesen hat?“
✅ Antwort: „Einfach: Checkbox für ‚Gelesen‘, kurzes Quiz oder KI-Tracking. Quiz + Schulung ist die beste Lösung!“
💬 Frage 3: „Kann ich einfach alle Dokumente in eine KI laden und das Normenmanagement automatisieren?“
❌ Antwort: „Nein. KI hilft, kann aber keine Verantwortung übernehmen. Ohne menschliche Kontrolle bleibt’s riskant!“