Die folgende Übersicht zeigt, welche Forschungsprojekte für Normungsexperten besonders relevant sind und warum: Sie decken regulatorische, technische, nachhaltige und sicherheitsbezogene Fragestellungen ab und bieten wertvolle Einblicke in die Entwicklung von Standards und Verfahren für Künstliche Intelligenz.
Entwicklung von Prüfverfahren:
Standards für die Überprüfung und Zertifizierung von KI-Systemen, ähnlich den TÜV-Tests für Fahrzeuge, werden entwickelt, um die Zuverlässigkeit und Sicherheit von KI-Anwendungen sicherzustellen.
Beispiel: BSI CERT
Qualitätskriterien:
Definition messbarer Eigenschaften, die eine „gute“ und vertrauenswürdige KI ausmachen. Hierbei spielen normierte Ansätze wie die ISO/IEC 42001 eine wichtige Rolle.
Internationale Standards:
Harmonisierung der Regeln und Anforderungen an KI-Systeme zwischen verschiedenen Ländern und Regionen, um globale Kompatibilität und Marktzugang zu gewährleisten.
Beispiel: DIN/ISO
Industrielle Qualitätskontrolle:
Einsatz von KI-Systemen zur automatischen Erkennung von Produktfehlern und Steigerung der Effizienz in der Produktion.
Beispiel: Fraunhofer IPA
Validierungsmethoden:
Methoden zur Überprüfung, ob Entscheidungen, die durch KI getroffen werden, zuverlässig und nachvollziehbar sind. Dies ist entscheidend für die Akzeptanz und den sicheren Einsatz von KI.
Beispiel: TÜV CERT
Referenzarchitekturen:
Standardisierte Baupläne für KI-Systeme, die Unternehmen als Vorlage für eigene Anwendungen dienen und Normung erleichtern.
Beispiel: DKE (Deutsche Kommission Elektrotechnik)
Energieverbrauch:
Messung und Optimierung des Stromverbrauchs von KI-Systemen, um den ökologischen Fußabdruck zu minimieren.
Beispiel: BSI Green IT
Emissionsmessung:
Entwicklung standardisierter Methoden zur Erfassung und Reduktion der CO2-Emissionen durch KI.
Beispiel: ISO 14001
Nachhaltigkeitsstandards:
Richtlinien zur umweltfreundlichen Nutzung und Entwicklung von KI-Technologien, unterstützt durch den EU Green Deal.
Sicherheitsstandards:
Entwicklung von Schutzmaßnahmen gegen Angriffe und unbefugten Zugriff auf KI-Systeme.
Beispiel: BSI AI
Zertifizierungsmethoden:
Offizielle Verfahren zur Bestätigung der Sicherheit von KI-Systemen durch unabhängige Stellen.
Beispiel: TÜV AI
Risikobewertung:
Systematische Einschätzung potenzieller Risiken und Gefahren, die durch den Einsatz von KI entstehen können, mit besonderem Fokus auf regulatorische Vorgaben wie den EU AI Act.
„Zertifizierte KI“ (BSI/Fraunhofer IAIS)
Ziel: Entwicklung von Prüfverfahren für KI-Systeme, vergleichbar mit TÜV-Prüfungen für Autos, um vertrauenswürdige und sichere KI-Anwendungen zu gewährleisten.
„AI Testing Facilities“ (EU)
Ziel: Einrichtung europäischer Testzentren für KI, die einheitliche Prüfmethoden entwickeln und zur Harmonisierung von Standards in Europa beitragen.
Diese Projekte sind besonders wichtig für:
Die Forschungsergebnisse tragen dazu bei, KI-Systeme sicher, zuverlässig und nachhaltig zu gestalten und bieten wichtige Impulse für die Normung und Standardisierung im Bereich der Künstlichen Intelligenz.