Eine konsistente, nachvollziehbare Einordnung von KI-Methoden ist Grundvoraussetzung für eine wirksame Normung. Die jüngste Veröffentlichung des MIT zur Methode Information Contrastive Learning (I-Con) bietet hier einen vielversprechenden Zugang:

Kernaussage: Mehr als 20 gängige ML-Verfahren – von Spam-Filtern bis zu Deep Learning-Modellen – lassen sich durch eine einzige mathematische Struktur verbinden.

Das bietet das Modell für die Normung:

  • Transparenz über Wirkweise und Lernmechanismen verschiedener Algorithmen

  • Erweiterbarkeit für neue Verfahren (z. B. Lückenanalogie zum Periodensystem)

  • Transferfähigkeit: Methoden aus einem Bereich können gezielt auf andere übertragen werden

Nutzen für Normungsarbeit im ANP-Kontext:

  • Vergleichbarkeit und Einordnung von KI-Systemen nach Lernstrategie, Datenabhängigkeit und Zweck

  • Unterstützung bei der Klassifikation gemäß AI Act (Art. 6 + Anhang III)

  • Grundlage für konsistente Schulungsinhalte, Auditkriterien und Dokumentationspflichten

🧩 Quelle: Generative AI Newsletter, 23.04.2025 – MIT I-Con Framework, ICLR 2025




1.1.1 Maschinelles Lernen systematisch verstehen: MITs Periodensystem der KI

Wie lässt sich maschinelles Lernen systematisch kategorisieren?
Das MIT hat mit dem Konzept Information Contrastive Learning (I-Con) ein Ordnungsmodell entwickelt, das über 20 bekannte ML-Algorithmen mathematisch unter einem Dach vereint – ähnlich einem „Periodensystem der KI“.
Dieses Modell zeigt:

  • wie verschiedene KI-Verfahren strukturell zusammenhängen,

  • welche Verfahrensklassen bislang unerschlossen sind (Normungspotenzial),

  • und wie sich Transferlernen zwischen Methoden ermöglichen lässt.

Nutzen für die Normungspraxis:

  • Besseres Verständnis zur Einordnung von KI-Verfahren nach Funktionsweise

  • Identifikation normierungsrelevanter „Lücken“ für neue Verfahrensklassen

  • Referenz für Strukturierungsansätze in Klassifikationsnormen wie DIN/TS 92004 oder ISO/IEC 5338

🧩 Quelle: Generative AI Newsletter, 23.04.2025 – MIT I-Con Paper (ICLR 2025)

  • No labels