You are viewing an old version of this page. View the current version.

Compare with Current View Page History

« Previous Version 13 Next »


Der AI Act Navigator wird derzeit aufgebaut und kontinuierlich erweitert. Wir nutzen dabei das Schwarmwissen unserer Community. Ihre Beiträge und Erfahrungen sind willkommen!





Überblick und Zielsetzung

Der AI Act Navigator bietet eine strukturierte Orientierung durch die komplexen Anforderungen des EU AI Acts. Diese Sektion unterstützt Sie bei der praktischen Umsetzung der Regulierung in Ihrem Unternehmen.



Risikobasierte Kategorisierung

Der EU AI Act verwendet eine beschreibende Risikoklassifizierung anstelle eines nummerischen oder alphanumerischen Systems. Die vier Risikostufen sind:

  • Inakzeptables Risiko (Verbotene KI-Systeme, z. B. Social Scoring)
  • Hohes Risiko (z. B. KI in der kritischen Infrastruktur, Gesundheitssektor, biometrische Identifikation)
  • Begrenztes Risiko (z. B. Chatbots, die kennzeichnungspflichtig sind)
  • Minimales Risiko (z. B. generative KI wie ChatGPT, Grok oder DeepSeek)

Im Gegensatz zu Kreditratings (z. B. AAA, BB) oder Sicherheitsklassifizierungen (z. B. ISO/EIC 62443 für IT-Sicherheit) bleibt der AI Act bei rein verbalen Beschreibungen. Dies soll die Flexibilität der Gesetzgebung gewährleisten, da sich KI-Technologien rasch weiterentwickeln.


Inakzeptables Risiko

  • Verbotene Anwendungen gemäß Art. 5 (z.B. Social Scoring)

  • Umsetzungsfrist: Unmittelbar mit Inkrafttreten


Hochrisiko-Systeme

  • Klassifizierungskriterien nach Anhang III

  • Beispiele: Medizingeräte, kritische Infrastruktur

  • Konformitätsnachweis durch CE-Kennzeichnung erforderlich EU AI Act, Art. 43


Begrenztes Risiko

  • Transparenzpflichten gemäß Art. 52

  • Typische Anwendungen: Chatbots, Deepfakes


Minimales Risiko

  • Keine spezifischen Auflagen

  • Freiwillige Einhaltung ethischer Leitlinien empfohlen


Weitere Infos unter: "2.3 Tools & Templates".



Compliance-Fahrplan

Schritt-für-Schritt Anleitung:

  1. Risikobewertung
    • Selbsteinschätzungs-Tool
    • Kategorisierungshilfen
  2. Anforderungsanalyse
    • Checklisten pro Risikokategorie
    • Dokumentationsvorlagen
  3. Implementierungsplanung
    • Zeitplan-Templates
    • Ressourcenplanung



Konformitätsbewertung

Exaktheit und Präzision bei KI-gestützter Konformitätsbewertung

Bei der Konformitätsbewertung von KI-Systemen gemäß Artikel 43 des EU AI Acts stellt sich die fundamentale Frage: Wie präzise können KI-Systeme selbst bei der Bewertung von Compliance-Anforderungen unterstützen? Die inhärente Eigenschaft von KI, oft nur eine angenäherte Exaktheit zu liefern, steht im Spannungsverhältnis zu den strengen Präzisionsanforderungen des Normenmanagements.

Für die Praxis empfehlen wir einen hybriden Ansatz: KI-Systeme können effektiv für die Voranalyse und Strukturierung von Anforderungen eingesetzt werden, während kritische Bewertungsschritte und finale Entscheidungen einer menschlichen Überprüfung bedürfen. Die ANP-Arbeitsgruppe "Qualitätssicherung" könnte detaillierte Richtlinien erarbeiten, wann und wie KI im Konformitätsprozess eingesetzt werden kann, ohne die Genauigkeit zu kompromittieren.



Praxishilfen und Tools

Unterstützende Materialien:

  1. Dokumentationsvorlagen
    • Konformitätserklärungen
    • Risikoanalysen
  2. Checklisten
    • Compliance-Überprüfung
    • Implementierungsschritte
  3. Interaktive Tools
    • Risiko-Assessment
    • Compliance-Tracker

Tipp für die Praxis

Nutzen Sie den AI Act Navigator in Kombination mit der DIN/TS 92004:2024, um eine ganzheitliche Compliance-Strategie für Ihre KI-Systeme zu entwickeln.



FAQs aus der Praxis

Dieser FAQ-Bereich klärt die Schulungspflichten für KI-Systeme und technische Anlagen basierend auf dem risikobasierten Ansatz der EU-KI-Verordnung (AI Act) und der Maschinenrichtlinie.

Welche Schulungspflichten gelten für Hochrisiko- versus begrenzte/minimale Risikosysteme?

Die Einordnung in Risikoklassen bestimmt die Schulungsanforderungen maßgeblich. Hier ein Überblick:

Risikokategorien und Schulungsanforderungen

  • Hochrisiko-Systeme (Art. 6-27 AI Act, §6 Maschinenrichtlinie):
    • Pflichtschulungen für Entwickler, Betreiber und Wartungspersonal
    • Mindestumfang:
      • Risikomanagement nach ISO 31000
      • Technische Dokumentation gemäß DIN EN 1591-4
      • Betriebsspezifische Gefährdungsanalysen
    • Zertifizierung durch akkreditierte Stellen (z. B. TÜV, DEKRA)
    • Beispiel Maschinenbau: Schulung zur Interpretation von Schraubenkraftmessungen an Flanschverbindungen (Qualifikationsstufe 8.2.2, DIN EN 1591-4)
  • Begrenzte Risikosysteme (Art. 50 AI Act):
    • Transparenzschulungen für Endnutzer*innen
    • Inhalte:
      • Erkennung von KI-generierten Inhalten
      • Datenschutzrechtliche Aspekte (DSGVO-Compliance)
    • Empfohlene Zyklen: Jährliche Auffrischung
  • Minimalrisiko-Systeme (Art. 4 AI Act):
    • Freiwillige Code-of-Conduct-Schulungen
    • Fokus: Ethische Leitlinien und Best Practices
    • Nachweis: Technische Datenblätter

Vergleichstabelle: Schulungsanforderungen nach Risikoklasse

ParameterHochrisiko-Beispiel (Industrieroboter)Minimalrisiko-Beispiel (Spamfilter)
RisikoklasseKlasse IV (DIN EN ISO 12100)Klasse I
Schulungsumfang40 Std. zertifizierte Ausbildung4 Std. Online-Modul
KontrollmechanismusDreistufige FreigabeprüfungSelbstbewertungsbogen
DokumentationspflichtVollständige RisikobeurteilungKurzformular zur Funktionsbeschreibung
Unterstützendes Material
  • Grundlage: DIN EN 1591-4 Auditkriterien und AI Act-Compliance

Entscheidungsmatrix

Zur Risikoeinstufung gemäß AI Act Anhang II/III:

  • Hochrisiko: Automatische Bewertungssysteme in kritischer Infrastruktur
  • Minimalrisiko: Statistische Analysewerkzeuge

Betriebliche Kriterien:

  • Interaktionshäufigkeit mit dem System
  • Kritikalität der unterstützten Prozesse
  • Regulatorische Vorgaben
  • Explizite Schulungsverpflichtung in Branchennormen
  • Haftungsrechtliche Erfordernisse
  • Technische Komplexität
  • Notwendigkeit zum Verständnis von Steuerungsalgorithmen
  • Fehlerfolgenabschätzung bei Fehlbedienung

Praxisbeispiel aus dem ANP-Netzwerk

Ein mittelständischer Anlagenbauer implementierte ein KI-gestütztes Predictive-Maintenance-System (Risikoklasse III). Die obligatorische 80-stündige Schulung nach DIN EN 1591-4 reduzierte Ausfallzeiten um 37%. Die ROI-Berechnung des ANP zeigte eine Kosteneinsparung von 6,7x gegenüber den Schulungskosten.

Implementierungsstrategie für Schulungskonzepte

  • Phase 1: Risikoprofilierung
    • Quantitative Bewertung mittels Risiko-Matrix nach ISO 31000
    • Normenrecherche im DIN-Normenwerk
  • Phase 2: Schulungsdesign
    • Theorie-Praxis-Verhältnis gemäß DIN EN 1591-4 Kap. 8.2.2:
      • 30% Normenwissen
      • 50% Anwendungsfalltraining
      • 20% Prüfungsvorbereitung
  • Phase 3: Kontinuierliche Verbesserung
    • Auditierung nach Checkliste CL07PE63
    • Feedbackintegration aus ANP-Erfahrungsberichten

Rechtliche Konformität

Die Überwachung erfolgt durch:

  • AI Office der EU für KI-Systeme
  • Zuständige Aufsichtsbehörden (z. B. DGUV) für Maschinen
  • Interne Revision mittels Risikokontrollmatrix

Bei Verstößen drohen Sanktionen bis zu 7% des globalen Umsatzes. Daher ist die Dokumentation aller Schulungsmaßnahmen gemäß ISO 10015 unerlässlich.


Übersichtstabelle: Schulungspflichten nach Risikoklasse

RisikoklasseSchulungspflichtBetroffeneBeispielKontrolle
HochrisikoJa, ab Feb 2025 (40h min.)Entwickler, direkte NutzerHR-Tools (Bewerberbewertung)Aktive Audits ab Aug 2025
Begrenztes RisikoNein, freiwillig (4-8h)Nutzer (optional)Marketing-ChatbotsStichproben bei Verstößen
Minimales RisikoNein, freiwilligKeine VorgabeTechnische DatenblätterNur bei Beschwerden




  • No labels