Versions Compared

Key

  • This line was added.
  • This line was removed.
  • Formatting was changed.

...

Dieser FAQ-Bereich klärt die Schulungspflichten für KI-Systeme und technische Anlagen basierend auf dem risikobasierten Ansatz der EU-KI-Verordnung (AI Act) und der Maschinenrichtlinie.

📖 Überblick

Dieser FAQ-Bereich klärt die Schulungspflichten für KI-Systeme und technische Anlagen basierend auf dem risikobasierten Ansatz des EU AI Acts und der Maschinenrichtlinie.

🆕 Neu in 2025:
Erweiterte Schulungspflichten für Hochrisiko-KI
Entscheidungsmatrix zur KI-Risikoklassifikation
Neue Praxisbeispiele zur Compliance-Umsetzung

...

📌 1. Welche Schulungspflichten gelten für Hochrisiko- versus begrenzte/minimale Risikosysteme?

Die Risikokategorie eines KI-Systems bestimmt die Schulungsanforderungen maßgeblich.

📝 Risikokategorien und Schulungsanforderungen

RisikoklasseSchulungspflichtMindestumfangZertifizierung & NachweiseBeispiel
Hochrisiko (Art. 6-27 AI Act, §6 Maschinenrichtlinie)✅ Ja (Pflicht)40 Std. zertifizierte AusbildungTÜV, DEKRA oder akkreditierte StellenHR-KI für Bewerberbewertung
Begrenztes Risiko (Art. 50 AI Act)🟠 Nein (Empfohlen)4-8 Std. TransparenzschulungSelbstverpflichtung, internes AuditMarketing-Chatbots
Minimales Risiko (Art. 4 AI Act)❌ Nein (Freiwillig)Technische Dokumentation & Best PracticesSelbstbewertung, keine externen AnforderungenSpamfilter, KI-gestützte Suchalgorithmen

...

📌 2. Entscheidungsmatrix: Einstufung von KI-Systemen

Die folgende Matrix hilft bei der Klassifikation von KI-Systemen nach AI Act.

KriteriumHochrisiko (z. B. Industrieroboter, Medizin-KI)Minimalrisiko (z. B. Spamfilter, Empfehlungssysteme)
Regulatorische AnforderungenAI Act Anhang II/III, verpflichtende PrüfungKeine regulatorischen Vorgaben
Schulungsumfang40 Std. zertifizierte Ausbildung4 Std. Online-Modul
KontrollmechanismusDreistufige Freigabeprüfung (intern, extern, regulatorisch)Selbstbewertungsbogen
DokumentationspflichtVollständige Risikobeurteilung nach DIN EN 1591-4Kurzformular zur Funktionsbeschreibung


...

📌 3. Praxisbeispiel aus dem ANP-Netzwerk

Ein mittelständischer Anlagenbauer implementierte ein KI-gestütztes Predictive-Maintenance-System (Risikoklasse III).

🔹 Erforderliche Maßnahmen:
80-stündige Schulung nach DIN EN 1591-4
Verpflichtende Zertifizierung durch TÜV Süd
Regelmäßige Risiko-Checks & Audits

📌 Ergebnis:
🔹 Reduzierung der Ausfallzeiten um 37%
🔹 Einsparung von 6,7x der Schulungskosten durch ROI-Analyse

...

📌 4. Implementierungsstrategie für Schulungskonzepte

PhaseMaßnahmenNormative Grundlage
Phase 1: RisikoprofilierungQuantitative Bewertung mittels Risikomatrix nach ISO 31000AI Act Anhang II/III
Phase 2: SchulungsdesignTheorie-Praxis-Verhältnis: 30% Normenwissen, 50% Anwendungstraining, 20% PrüfungsvorbereitungDIN EN 1591-4 Kap. 8.2.2
Phase 3: Kontinuierliche VerbesserungAuditierung nach Checkliste CL07PE63, Feedback-Integration aus ANP-ErfahrungsberichtenISO 10015 (Schulungsqualität)

...

📌 5. Rechtliche Konformität & Sanktionen

📌 Überwachung durch:
AI Office der EU für KI-Systeme
Aufsichtsbehörden (z. B. DGUV) für Maschinenrichtlinien
Interne Revision mit Risikokontrollmatrix

📌 Mögliche Sanktionen bei Verstößen:
Bis zu 7% des globalen Umsatzes (bei Nichteinhaltung von Schulungspflichten nach AI Act)
Regulatorische Sperrung von Hochrisiko-KI-Systemen


...


Offene Fragen


📌 1. Kann KI in Normenmanagement-Systemen (NMS) nachweisen, wann mit welchem Regelwerk in welchem Projekt gearbeitet wurde, z. B. für Audits?

Ja, mit KI-unterstützten NMS ist das möglich:

Versionssichere Archivierung: Alle verwendeten Normen werden mit Zeitstempel gespeichert.
Automatische Protokollierung: Jede Nutzung von Normen wird nachvollziehbar dokumentiert.
Audit-Trails: KI-generierte Nachweise ermöglichen eine revisionssichere Kontrolle.
Interne & externe Standards: Neben offiziellen Normen können auch unternehmensspezifische Regelwerke integriert werden.
Transparenz & Kontrolle: KI hilft bei der Dokumentation, aber die finale Verantwortung bleibt beim Menschen.

🔹 Fazit: Moderne KI-gestützte NMS sind auditfähig und ermöglichen eine klare Nachvollziehbarkeit – vorausgesetzt, sie sind korrekt implementiert.


...

📌 2. Wie kann ich sicherstellen, dass ein Nutzer eine Norm gelesen und verstanden hat?

Mögliche Methoden:

MethodeBeschreibungEinsatzbereich
Digitale BestätigungNutzer klickt „Gelesen & verstanden“ vor der Weiterarbeit.Niedriges Risiko, einfache Compliance-Nachweise
Interaktive Tests3–5 Fragen zu Kernpunkten der NormKritische Inhalte, Nachweis der Verständnisprüfung
SchulungsnachweiseTeilnahme an verpflichtenden E-Learning-Modulen mit ZertifikatHochrisiko-Systeme (z. B. Maschinenbau, Medizintechnik)
KI-MonitoringAnalyse, ob und wie lange Nutzer bestimmte Abschnitte betrachtenAdaptive Lernsysteme, kontinuierliche Audit-Prozesse


🔹 Empfehlung: Die Kombination aus Quiz und Schulungsnachweis bietet die beste Absicherung.


...

📌 3. Kann ich alle Dokumente in eine KI hochladen und sie „laufen lassen“ – ersetzt das das Normenmanagement?

Nein – KI kann unterstützen, aber nicht ersetzen.

ProblemBeschreibungRisiko
NachvollziehbarkeitKI liefert oft keine vollständige Begründung für ihre Ergebnisse („Blackbox-Problem“).Hoch (z. B. Zertifizierungsprozesse)
Branchenspezifischer Kontext fehltKI kann Normen falsch interpretieren, wenn sie branchenspezifische Anforderungen nicht kennt.Mittel (Fehlanwendung in regulierten Branchen)
HaftungsrisikenUnternehmen bleiben für Compliance-Fehler verantwortlich, nicht die KI.Sehr hoch (Regulatorische Strafen)


📌 Praxisbeispiel: Eine KI könnte ISO 13485 (Medizinprodukte) fälschlich auf ein Bauprojekt anwenden.

🔹 Fazit: KI optimiert Normenverwaltung (z. B. durch automatische Updates oder Recherche), ersetzt aber keine kontrollierte Dokumentation und menschliche Expertise.


...

📌 4. Übersicht: Schulungspflichten nach Risikoklasse


RisikoklasseSchulungspflichtBetroffene GruppenBeispielKontrolle
Hochrisiko (Art. 6-27 AI Act, §6 Maschinenrichtlinie)✅ Ja, ab Feb 2025 (40h min.)Entwickler, direkte NutzerHR-Tools (Bewerberbewertung)Aktive Audits ab Aug 2025
Begrenztes Risiko (Art. 50 AI Act)🟠 Nein, freiwillig (4-8h)Nutzer (optional)Marketing-ChatbotsStichproben bei Verstößen
Minimales Risiko (Art. 4 AI Act)❌ Nein, freiwilligKeine VorgabeSpamfilter, SuchalgorithmenNur bei Beschwerden

...

📌 5. Integration in den AI Act Navigator (1.2.)

Der Q&A-Bereich wurde überarbeitet, um praxisnahe Orientierung für Normungsexperten zu bieten. Er ergänzt bestehende Themen wie Schulungspflichten und Compliance.

👉 Diskussion erwünscht: Welche weiteren Fragen sollten wir hier aufnehmen?

📌 Diskutieren Sie mit der Community! Zum Forum


...

📌 6. Microsoft Teams Chat-Version (Kurzfassung für den Alltag)

💬 Frage 1: „Kann KI in einem NMS nachweisen, wann welche Norm genutzt wurde – z. B. für Audits?“
Antwort: „Ja, mit versionssicherer Speicherung, automatischen Logs & Audit-Trails. Aber: Menschliche Kontrolle bleibt essenziell!“

💬 Frage 2: „Wie stelle ich sicher, dass jemand eine Norm wirklich gelesen hat?“
Antwort: „Einfach: Checkbox für ‚Gelesen‘, kurzes Quiz oder KI-Tracking. Quiz + Schulung ist die beste Lösung!“

💬 Frage 3: „Kann ich einfach alle Dokumente in eine KI laden und das Normenmanagement automatisieren?“
Antwort: „Nein. KI hilft, kann aber keine Verantwortung übernehmen. Ohne menschliche Kontrolle bleibt’s riskant!“