You are viewing an old version of this page. View the current version.

Compare with Current View Page History

« Previous Version 17 Next »



Willkommen bei den KI-Ethik News im DIN KI-Hub

🎙️ Täglich informiert, fundiert, relevant

Mit den KI-Ethik News erhalten Sie kompakte Updates zu aktuellen Entwicklungen rund um Künstliche Intelligenz, Regulierung und Normung – speziell kuratiert für Entscheider im Mittelstand.

Ihr tägliches Briefing zu KI, Ethik und Regulierung in Deutschland und Europa.

"KI-Ethik News" liefert Ihnen werktäglich die wichtigsten Entwicklungen rund um den AI Act, DIN-Normen, Compliance und Unternehmenspraxis – kompakt, verständlich und mit exklusiver Einordnung von Arno Schimmelpfennig, einem renommierten Experten für KI-Normung in Deutschland. Für Entscheider, Compliance-Manager, Tech-Professionals und alle, die wissen wollen, wie KI die Wirtschaft und Gesellschaft verändert.
Jetzt abonnieren und keine Folge verpassen!

>> https://open.spotify.com/show/6CXRVtEVhhZkyl2Vpf1Vd8?si=d4e3d3a370634fee

Diese Seite bietet Ihnen:
Kurz und klar: Die wichtigsten Nachrichten auf einen Blick
Zum Anhören: Den Podcast direkt eingebettet – ideal für unterwegs
Zum Nachlesen: Vollständige Transkripte mit weiterführenden Links
Zum Mitdiskutieren: Wöchentliche Fragen und Community-Impulse

Gerade in einem komplexen Themenfeld wie KI und Normung soll dieser News Bereich genau das leisten: Orientierung, Austausch und konkrete Handlungsempfehlungen, damit Sie KI verantwortungsvoll und wirksam einsetzen können.

👉 Interesse? Klicken Sie obenr rechts auf „Beobachten“ (Symbol: Auge), um automatisch informiert zu bleiben, wenn neue Folgen erscheinen.


NEUE FOLGE: 4.08.2025

Hier ist die DIN-kompatible Confluence-Version der Podcast-Folge vom 4. August 2025, fachlich übertragen auf die Normung und Normenanwendung:


KI-Entwicklungen mit Relevanz für Normenpraxis

Datum: 4. August 2025
Zielgruppe: Normenanwender:innen, Fachgremien, KMU im Umfeld von DIN und KI-Regulierung


1. Neue EU-Transparenzpflichten für KI-Anbieter – Signal für vertrauenswürdige KI

Seit dem 2. August 2025 gelten in der EU neue Vorgaben zur Transparenz großer KI-Modelle. Anbieter wie OpenAI oder Google müssen offenlegen:
– welche Daten für das Training verwendet wurden,
– welche Maßnahmen zum Schutz von Urheberrechten greifen,
– und wie algorithmische Entscheidungsprozesse nachvollziehbar dokumentiert werden.

Normungsrelevanz:
– Diese Anforderungen ergänzen bestehende Normen wie ISO/IEC 42001 (KI-Managementsysteme) und schaffen Anknüpfungspunkte für konkrete Audit- und Dokumentationsstandards.
– Die Durchsetzung hoher Bußgelder (bis zu 15 Mio. Euro oder 3 % des globalen Umsatzes) zeigt, dass die EU einen verbindlichen Rahmen schafft.
– Es fehlen jedoch normierte Mindestkriterien, um „Transparenz“ messbar und einheitlich interpretierbar zu machen.

Implikation für Arbeitskreise:
Normungsgremien sollten Prüfkriterien für Erklärbarkeit und Offenlegungspflichten entwickeln und Schnittstellen zu gesetzlichen Vorgaben klären. Transparenz muss technisch überprüfbar werden.


2. 80 % der KI-Projekte im Mittelstand scheitern – Datenqualität als Normthema

Eine Fraunhofer-Studie zeigt: Vier von fünf KI-Pilotprojekte im Mittelstand werden abgebrochen, meist wegen mangelnder Datenqualität, fehlendem Change-Management oder unrealistischen Erwartungen.

Normungsrelevanz:
– Datenqualität ist bislang nur punktuell normiert (z. B. ISO 8000), jedoch nicht speziell auf KI-Trainingsdaten ausgelegt.
– Es fehlt an standardisierten Methoden zur Validierung von Datenpools vor Projektstart.
– Auch Prozessnormen für schrittweisen, risikoarmen KI-Rollout sind noch unzureichend.

Implikation für Arbeitskreise:
Es braucht Praxisnormen für Datenqualität, Fehlerkultur und Projekttransparenz, um insbesondere KMU eine realistische Roadmap zu geben. Erfahrungen aus gescheiterten Projekten sollten systematisch in Leitlinien einfließen.


3. Schleppende nationale Umsetzung der KI-Verordnung – fehlende Aufsicht

Die deutsche Politik wird wegen langsamer Umsetzung des EU AI Acts kritisiert. Insbesondere die Einrichtung und Ausstattung der Aufsichtsbehörde verzögert sich, während Hochrisiko-KI-Regeln erst ab 2026 greifen.

Normungsrelevanz:
– Fehlende nationale Klarheit erschwert Unternehmen und Behörden, sich an gemeinsame Normen und Kontrollmechanismen zu halten.
Selbstregulative Normen (z. B. für Risikomanagement oder Audits) gewinnen an Bedeutung, da staatliche Überwachung hinterherhinkt.
– Vertrauen in KI erfordert einheitliche Bewertungsmaßstäbe, die durch Normen gestützt werden können.

Implikation für Arbeitskreise:
Gremien können hier proaktiv agieren, indem sie Handlungsrichtlinien, Prüfprozesse und Kontrollinstrumente vorschlagen, die unabhängig von der staatlichen Regulierung anwendbar sind.


4. KI-Goldrausch der Tech-Konzerne – Risiken für Nachhaltigkeit und Abhängigkeit

155 Milliarden US-Dollar wurden 2025 bereits in KI-Infrastruktur investiert, mit weiteren 400 Milliarden bis 2026. Die Energie- und Ressourcenintensität dieser Rechenzentren wächst rasant.

Normungsrelevanz:
– Nachhaltigkeitsstandards (z. B. ISO/IEC 30134) müssen um KI-spezifische Effizienzkriterien erweitert werden.
Abhängigkeit von wenigen Großanbietern erfordert Normen für Interoperabilität und vendor lock-in-Vermeidung.
– Der CO₂-Fußabdruck von KI-Infrastrukturen ist bislang kaum standardisiert messbar.

Implikation für Arbeitskreise:
Es braucht einheitliche Nachhaltigkeitskriterien für KI (z. B. Energieverbrauch pro Inferenz/Training) und Leitlinien für nachhaltige Beschaffung und Einsatzplanung von KI-Lösungen.


  • No labels