Die folgende Übersicht zeigt, welche Forschungsprojekte für Normungsexperten besonders relevant sind und warum: Sie decken regulatorische, technische, nachhaltige und sicherheitsbezogene Fragestellungen ab und bieten wertvolle Einblicke in die Entwicklung von Standards und Verfahren für Künstliche Intelligenz.
Regulatorische Forschung – Wie können wir KI sicher machen?
Entwicklung von Prüfverfahren:
Standards für die Überprüfung und Zertifizierung von KI-Systemen, ähnlich den TÜV-Tests für Fahrzeuge, werden entwickelt, um die Zuverlässigkeit und Sicherheit von KI-Anwendungen sicherzustellen.
Beispiel: BSI CERTQualitätskriterien:
Definition messbarer Eigenschaften, die eine „gute“ und vertrauenswürdige KI ausmachen. Hierbei spielen normierte Ansätze wie die ISO/IEC 42001 eine wichtige Rolle.Internationale Standards:
Harmonisierung der Regeln und Anforderungen an KI-Systeme zwischen verschiedenen Ländern und Regionen, um globale Kompatibilität und Marktzugang zu gewährleisten.
Beispiel: DIN/ISO
Technische Umsetzung – Wie funktioniert KI in der Praxis?
Industrielle Qualitätskontrolle:
Einsatz von KI-Systemen zur automatischen Erkennung von Produktfehlern und Steigerung der Effizienz in der Produktion.
Beispiel: Fraunhofer IPAValidierungsmethoden:
Methoden zur Überprüfung, ob Entscheidungen, die durch KI getroffen werden, zuverlässig und nachvollziehbar sind. Dies ist entscheidend für die Akzeptanz und den sicheren Einsatz von KI.
Beispiel: TÜV CERTReferenzarchitekturen:
Standardisierte Baupläne für KI-Systeme, die Unternehmen als Vorlage für eigene Anwendungen dienen und Normung erleichtern.
Beispiel: DKE (Deutsche Kommission Elektrotechnik)
Nachhaltigkeit – Wie umweltfreundlich ist KI?
Energieverbrauch:
Messung und Optimierung des Stromverbrauchs von KI-Systemen, um den ökologischen Fußabdruck zu minimieren.
Beispiel: BSI Green ITEmissionsmessung:
Entwicklung standardisierter Methoden zur Erfassung und Reduktion der CO2-Emissionen durch KI.
Beispiel: ISO 14001Nachhaltigkeitsstandards:
Richtlinien zur umweltfreundlichen Nutzung und Entwicklung von KI-Technologien, unterstützt durch den EU Green Deal.
Sicherheit – Wie schützen wir KI-Systeme?
Sicherheitsstandards:
Entwicklung von Schutzmaßnahmen gegen Angriffe und unbefugten Zugriff auf KI-Systeme.
Beispiel: BSI AIZertifizierungsmethoden:
Offizielle Verfahren zur Bestätigung der Sicherheit von KI-Systemen durch unabhängige Stellen.
Beispiel: TÜV AIRisikobewertung:
Systematische Einschätzung potenzieller Risiken und Gefahren, die durch den Einsatz von KI entstehen können, mit besonderem Fokus auf regulatorische Vorgaben wie den EU AI Act.
Konkrete Forschungsprojekte
„Zertifizierte KI“ (BSI/Fraunhofer IAIS)
Ziel: Entwicklung von Prüfverfahren für KI-Systeme, vergleichbar mit TÜV-Prüfungen für Autos, um vertrauenswürdige und sichere KI-Anwendungen zu gewährleisten.„AI Testing Facilities“ (EU)
Ziel: Einrichtung europäischer Testzentren für KI, die einheitliche Prüfmethoden entwickeln und zur Harmonisierung von Standards in Europa beitragen.
Diese Projekte sind besonders wichtig für:
- Qualitätsmanager
- Technische Leiter
- Normungsbeauftragte
- Entwicklungsleiter
Die Forschungsergebnisse tragen dazu bei, KI-Systeme sicher, zuverlässig und nachhaltig zu gestalten und bieten wichtige Impulse für die Normung und Standardisierung im Bereich der Künstlichen Intelligenz.