Page History
Willkommen bei den KI-Ethik News im DIN KI-Hub
🎙️ Täglich informiert, fundiert, relevant
Mit den KI-Ethik News erhalten Sie kompakte Updates zu aktuellen Entwicklungen rund um Künstliche Intelligenz, Regulierung und Normung – speziell kuratiert für Entscheider im Mittelstand.
Ihr tägliches Briefing zu KI, Ethik und Regulierung in Deutschland und Europa.
"KI-Ethik News" liefert Ihnen werktäglich die wichtigsten Entwicklungen rund um den AI Act, DIN-Normen, Compliance und Unternehmenspraxis – kompakt, verständlich und mit exklusiver Einordnung von Arno Schimmelpfennig, einem renommierten Experten für KI-Normung in Deutschland. Für Entscheider, Compliance-Manager, Tech-Professionals und alle, die wissen wollen, wie KI die Wirtschaft und Gesellschaft verändert.
Jetzt abonnieren und keine Folge verpassen!
>> https://open.spotify.com/show/6CXRVtEVhhZkyl2Vpf1Vd8?si=d4e3d3a370634fee
Diese Seite bietet Ihnen:
✅ Kurz und klar: Die wichtigsten Nachrichten auf einen Blick
✅ Zum Anhören: Den Podcast direkt eingebettet – ideal für unterwegs
✅ Zum Nachlesen: Vollständige Transkripte mit weiterführenden Links
✅ Zum Mitdiskutieren: Wöchentliche Fragen und Community-Impulse
Gerade in einem komplexen Themenfeld wie KI und Normung soll dieser News Bereich genau das leisten: Orientierung, Austausch und konkrete Handlungsempfehlungen, damit Sie KI verantwortungsvoll und wirksam einsetzen können.
👉 Interesse? Klicken Sie obenr rechts auf „Beobachten“ (Symbol: Auge), um automatisch informiert zu bleiben, wenn neue Folgen erscheinen.
NEUE FOLGE: 4.08.2025
Hier ist die DIN-kompatible Confluence-Version der Podcast-Folge vom 4. August 2025, fachlich übertragen auf die Normung und Normenanwendung:
KI-Entwicklungen mit Relevanz für
NormenpraxisNormung und Normenanwendung
Datum:
4 5. August 2025
Zielgruppe: Normenanwender:innen,
Arbeitskreise im
Umfeld von DIN undDIN-Umfeld, Fachverantwortliche für KI-
RegulierungGovernance
1.
Neue EU-Transparenzpflichten für KI-Anbieter – Signal für vertrauenswürdige KISeit dem 2. August 2025 gelten in der EU neue Vorgaben zur Transparenz großer KI-Modelle. Anbieter wie OpenAI oder Google müssen offenlegen:– welche Daten für das Training verwendet wurden,
– welche Maßnahmen zum Schutz von Urheberrechten greifen,
– und wie algorithmische Entscheidungsprozesse nachvollziehbar dokumentiert werden
EU bestätigt „Code of Practice“ als Nachweisinstrument – freiwillig, aber faktisch verpflichtend
Die EU-Kommission hat den „General-Purpose AI Code of Practice“ als konkretes Compliance-Werkzeug für den EU AI Act bestätigt. Der Code wurde unter Beteiligung von Industrie, Zivilgesellschaft und Mitgliedstaaten entwickelt und bietet praxisnahe Orientierung zu Artikel 53 und 55 des Gesetzes.
Normungsrelevanz:
–
– Die Durchsetzung hoher Bußgelder (bis zu 15 Mio. Euro oder 3 % des globalen Umsatzes) zeigt, dass die EU einen verbindlichen Rahmen schafft.
– Es fehlen jedoch normierte Mindestkriterien, um „Transparenz“ messbar und einheitlich interpretierbar zu machen.
Der Code beschreibt Anforderungen zur Dokumentation, Urheberrechtskonformität und Risikobewertung, die künftig auch normativ unterlegt werden sollten
– Er unterscheidet zwischen GPAI-Modellen und solchen mit systemischem Risiko – ein möglicher Anknüpfungspunkt für künftige Klassifikationsnormen
– Als freiwilliges Instrument erlangt der Code Quasi-Standard-Charakter, der normseitig aufgegriffen und präzisiert werden kann
Implikation für Arbeitskreise:
Die Normung kann den Code of Practice aufgreifen und in konkrete Anforderungskataloge, technische Checklisten und Auditstandards überführen. Ziel ist eine bessere Anschlussfähigkeit an bestehende Normen (z. B. ISO/IEC 42001) und nationale Umsetzungshilfen für KMU.
2. Deutsche KI-Umsetzung bleibt lückenhaft – Risiken für Rechtsklarheit
Laut Expert:innen (u. a. Anke Domscheit-Berg) mangelt es an einer konsistenten Umsetzung der EU-KI-Verordnung in Deutschland. Übergangsfristen bis 2030 für Behörden und eine nicht ausgestattete Interimsaufsicht erzeugen eine gefährliche Regulierungslücke.
Normungsrelevanz:
– Es fehlt an verbindlichen Vorgaben für die Bewertung bestehender KI-Systeme vor Inkrafttreten der Hochrisiko-Regelungen
– Unklare Zuständigkeiten erschweren die Praxisanwendung bestehender Normen zur KI-Governance
– Die Normung könnte als Ausgleichsinstrument dienen, um auch ohne gesetzliche Durchsetzung strukturierte Anforderungen bereitzustellen
Implikation für Arbeitskreise:
Die Normung sollte gezielt auf die Entwicklung unterstützender Rahmenwerke setzen – z. B. standardisierte Risikobewertungsmodelle, Prüfschritte für urheberrechtliche Konformität und modulare Dokumentationssysteme für bestehende KI-Anwendungen.
3. Schatten-KI in Unternehmen nimmt stark zu – Bedarf an Governance-Normen
Eine Studie von Netskope zeigt: Die Nutzung generativer KI steigt rapide, vielfach ohne Genehmigung der IT-Abteilungen. Über 1.550 Tools sind im Umlauf – viele davon mit unbekannter Herkunft, Sicherheitsstruktur oder Datenverarbeitung.
Normungsrelevanz:
– Es fehlen normierte Methoden zur Inventarisierung und Klassifikation von KI-Anwendungen in Unternehmen
– Die Interaktion von KI-Agenten mit anderen Systemen erfordert neue Schnittstellen- und Kontrollstandards
– Bestehende IT-Sicherheitsnormen (z. B. ISO/IEC 27001) sind für dynamische, lernende Systeme oft zu starr
Implikation für Arbeitskreise:
Benötigt werden Governance-Richtlinien für KI-Nutzung, die flexibel und praxisnah auch in KMU anwendbar sind. Standards zur Integration von Shadow-IT-Detektion, Autorisierung und Ethikbewertung sollten modular aufbaubar sein.
4. KI-Kompetenzmodelle 2025 – Standardisierung braucht mehr als Frameworks
Viele Unternehmen arbeiten aktuell an KI-Kompetenzmodellen – allerdings oft mit starrem Framework-Ansatz, der der dynamischen KI-Entwicklung nicht gerecht wird.
Normungsrelevanz:
– Derzeitige Kompetenzrahmen (z. B. aus dem Hochschulbereich) sind nicht übertragbar auf betriebliche Weiterbildung in KMU
– Es fehlen standardisierte Grundkompetenzen für die ethisch reflektierte Anwendung von KI
– Auch Formate für lernende Organisationen und agile Kompetenzentwicklung sind kaum normiert
Implikation für Arbeitskreise:
Die Normung kann helfen, Basis-KI-Kompetenzen für verschiedene Rollenprofile zu definieren (z. B. Entscheidungsträger, Entwickler, Anwender). Wichtige Kriterien: Reflexionsfähigkeit, Bias-Erkennung, Interaktionsverantwortung. Begleitformate wie regelmäßige KI-Updates oder Lessons Learned können strukturiert beschrieben werden
Implikation für Arbeitskreise:
Normungsgremien sollten Prüfkriterien für Erklärbarkeit und Offenlegungspflichten entwickeln und Schnittstellen zu gesetzlichen Vorgaben klären. Transparenz muss technisch überprüfbar werden.
2. 80 % der KI-Projekte im Mittelstand scheitern – Datenqualität als Normthema
Eine Fraunhofer-Studie zeigt: Vier von fünf KI-Pilotprojekte im Mittelstand werden abgebrochen, meist wegen mangelnder Datenqualität, fehlendem Change-Management oder unrealistischen Erwartungen.
Normungsrelevanz:
– Datenqualität ist bislang nur punktuell normiert (z. B. ISO 8000), jedoch nicht speziell auf KI-Trainingsdaten ausgelegt.
– Es fehlt an standardisierten Methoden zur Validierung von Datenpools vor Projektstart.
– Auch Prozessnormen für schrittweisen, risikoarmen KI-Rollout sind noch unzureichend.
Implikation für Arbeitskreise:
Es braucht Praxisnormen für Datenqualität, Fehlerkultur und Projekttransparenz, um insbesondere KMU eine realistische Roadmap zu geben. Erfahrungen aus gescheiterten Projekten sollten systematisch in Leitlinien einfließen.
3. Schleppende nationale Umsetzung der KI-Verordnung – fehlende Aufsicht
Die deutsche Politik wird wegen langsamer Umsetzung des EU AI Acts kritisiert. Insbesondere die Einrichtung und Ausstattung der Aufsichtsbehörde verzögert sich, während Hochrisiko-KI-Regeln erst ab 2026 greifen.
Normungsrelevanz:
– Fehlende nationale Klarheit erschwert Unternehmen und Behörden, sich an gemeinsame Normen und Kontrollmechanismen zu halten.
– Selbstregulative Normen (z. B. für Risikomanagement oder Audits) gewinnen an Bedeutung, da staatliche Überwachung hinterherhinkt.
– Vertrauen in KI erfordert einheitliche Bewertungsmaßstäbe, die durch Normen gestützt werden können.
Implikation für Arbeitskreise:
Gremien können hier proaktiv agieren, indem sie Handlungsrichtlinien, Prüfprozesse und Kontrollinstrumente vorschlagen, die unabhängig von der staatlichen Regulierung anwendbar sind.
4. KI-Goldrausch der Tech-Konzerne – Risiken für Nachhaltigkeit und Abhängigkeit
155 Milliarden US-Dollar wurden 2025 bereits in KI-Infrastruktur investiert, mit weiteren 400 Milliarden bis 2026. Die Energie- und Ressourcenintensität dieser Rechenzentren wächst rasant.
Normungsrelevanz:
– Nachhaltigkeitsstandards (z. B. ISO/IEC 30134) müssen um KI-spezifische Effizienzkriterien erweitert werden.
– Abhängigkeit von wenigen Großanbietern erfordert Normen für Interoperabilität und vendor lock-in-Vermeidung.
– Der CO₂-Fußabdruck von KI-Infrastrukturen ist bislang kaum standardisiert messbar.
Es braucht einheitliche Nachhaltigkeitskriterien für KI (z. B. Energieverbrauch pro Inferenz/Training) und Leitlinien für nachhaltige Beschaffung und Einsatzplanung von KI-Lösungen
.
