Versions Compared

Key

  • This line was added.
  • This line was removed.
  • Formatting was changed.
Comment: Diese Woche beleuchtet der Podcast massive wirtschaftliche Defizite bei KI-Providern, Haftungsrisiken bei "halluzinierenden" Berichten und die Bildung von Monopolen durch Plattform-Sperren. Für den Ausschuss Normenpraxis ergeben sich daraus drei konkrete Handlungsfelder: Transparenzstandards, Interoperabilität und Governance in der Lieferkette.



Willkommen bei den KI-Ethik News im DIN KI-Hub

🎙️ Täglich informiert, fundiert, relevant

Mit den KI-Ethik News erhalten Sie kompakte Updates zu aktuellen Entwicklungen rund um Künstliche Intelligenz, Regulierung und Normung – speziell kuratiert für Entscheider im Mittelstand.

Ihr tägliches Briefing zu KI, Ethik und Regulierung in Deutschland und Europa.

"KI-Ethik News" liefert Ihnen werktäglich die wichtigsten Entwicklungen rund um den AI Act, DIN-Normen, Compliance und Unternehmenspraxis – kompakt, verständlich und mit exklusiver Einordnung von Arno Schimmelpfennig, einem renommierten Experten für KI-Normung in Deutschland. Für Entscheider, Compliance-Manager, Tech-Professionals und alle, die wissen wollen, wie KI die Wirtschaft und Gesellschaft verändert.
Jetzt abonnieren und keine Folge verpassen!

>> https://open.spotify.com/show/6CXRVtEVhhZkyl2Vpf1Vd8?si=d4e3d3a370634fee

Diese Seite bietet Ihnen:
Kurz und klar: Die wichtigsten Nachrichten auf einen Blick
Zum Anhören: Den Podcast direkt eingebettet – ideal für unterwegs
Zum Nachlesen: Vollständige Transkripte mit weiterführenden Links
Zum Mitdiskutieren: Wöchentliche Fragen und Community-Impulse

Gerade in einem komplexen Themenfeld wie KI und Normung soll dieser News Bereich genau das leisten: Orientierung, Austausch und konkrete Handlungsempfehlungen, damit Sie KI verantwortungsvoll und wirksam einsetzen können.

👉 Interesse? Klicken Sie obenr rechts auf „Beobachten“ (Symbol: Auge), um automatisch informiert zu bleiben, wenn neue Folgen erscheinen.

NEUE


2. STAFFEL / FOLGE:

6

1.

08

12.2025


Impuls: Auswirkungen aktueller KI-Entwicklungen

mit Relevanz für Normung und Normenanwendung

auf die Normungspraxis

Datum: 5 1. August Dezember 2025
Zielgruppe: Normenanwender:innen, Arbeitskreise im DIN-Umfeld, Fachverantwortliche für KI-Governance


Titel:  Quelle: KI Ethik News (Staffel 2, Folge 1

. EU bestätigt „Code of Practice“ als Nachweisinstrument – freiwillig, aber faktisch verpflichtend

Die EU-Kommission hat den „General-Purpose AI Code of Practice“ als konkretes Compliance-Werkzeug für den EU AI Act bestätigt. Der Code wurde unter Beteiligung von Industrie, Zivilgesellschaft und Mitgliedstaaten entwickelt und bietet praxisnahe Orientierung zu Artikel 53 und 55 des Gesetzes.

Normungsrelevanz:
– Der Code beschreibt Anforderungen zur Dokumentation, Urheberrechtskonformität und Risikobewertung, die künftig auch normativ unterlegt werden sollten
– Er unterscheidet zwischen GPAI-Modellen und solchen mit systemischem Risiko – ein möglicher Anknüpfungspunkt für künftige Klassifikationsnormen
– Als freiwilliges Instrument erlangt der Code Quasi-Standard-Charakter, der normseitig aufgegriffen und präzisiert werden kann

Implikation für Arbeitskreise:
Die Normung kann den Code of Practice aufgreifen und in konkrete Anforderungskataloge, technische Checklisten und Auditstandards überführen. Ziel ist eine bessere Anschlussfähigkeit an bestehende Normen (z. B. ISO/IEC 42001) und nationale Umsetzungshilfen für KMU.

2. Deutsche KI-Umsetzung bleibt lückenhaft – Risiken für Rechtsklarheit

Laut Expert:innen (u. a. Anke Domscheit-Berg) mangelt es an einer konsistenten Umsetzung der EU-KI-Verordnung in Deutschland. Übergangsfristen bis 2030 für Behörden und eine nicht ausgestattete Interimsaufsicht erzeugen eine gefährliche Regulierungslücke.

Normungsrelevanz:
– Es fehlt an verbindlichen Vorgaben für die Bewertung bestehender KI-Systeme vor Inkrafttreten der Hochrisiko-Regelungen
– Unklare Zuständigkeiten erschweren die Praxisanwendung bestehender Normen zur KI-Governance
– Die Normung könnte als Ausgleichsinstrument dienen, um auch ohne gesetzliche Durchsetzung strukturierte Anforderungen bereitzustellen

Implikation für Arbeitskreise:
Die Normung sollte gezielt auf die Entwicklung unterstützender Rahmenwerke setzen – z. B. standardisierte Risikobewertungsmodelle, Prüfschritte für urheberrechtliche Konformität und modulare Dokumentationssysteme für bestehende KI-Anwendungen.

3. Schatten-KI in Unternehmen nimmt stark zu – Bedarf an Governance-Normen

Eine Studie von Netskope zeigt: Die Nutzung generativer KI steigt rapide, vielfach ohne Genehmigung der IT-Abteilungen. Über 1.550 Tools sind im Umlauf – viele davon mit unbekannter Herkunft, Sicherheitsstruktur oder Datenverarbeitung.

Normungsrelevanz:
– Es fehlen normierte Methoden zur Inventarisierung und Klassifikation von KI-Anwendungen in Unternehmen
– Die Interaktion von KI-Agenten mit anderen Systemen erfordert neue Schnittstellen- und Kontrollstandards
– Bestehende IT-Sicherheitsnormen (z. B. ISO/IEC 27001) sind für dynamische, lernende Systeme oft zu starr

Implikation für Arbeitskreise:
Benötigt werden Governance-Richtlinien für KI-Nutzung, die flexibel und praxisnah auch in KMU anwendbar sind. Standards zur Integration von Shadow-IT-Detektion, Autorisierung und Ethikbewertung sollten modular aufbaubar sein.

4. KI-Kompetenzmodelle 2025 – Standardisierung braucht mehr als Frameworks

Viele Unternehmen arbeiten aktuell an KI-Kompetenzmodellen – allerdings oft mit starrem Framework-Ansatz, der der dynamischen KI-Entwicklung nicht gerecht wird.

Normungsrelevanz:
– Derzeitige Kompetenzrahmen (z. B. aus dem Hochschulbereich) sind nicht übertragbar auf betriebliche Weiterbildung in KMU
– Es fehlen standardisierte Grundkompetenzen für die ethisch reflektierte Anwendung von KI
– Auch Formate für lernende Organisationen und agile Kompetenzentwicklung sind kaum normiert

Implikation für Arbeitskreise:
Die Normung kann helfen, Basis-KI-Kompetenzen für verschiedene Rollenprofile zu definieren (z. B. Entscheidungsträger, Entwickler, Anwender). Wichtige Kriterien: Reflexionsfähigkeit, Bias-Erkennung, Interaktionsverantwortung. Begleitformate wie regelmäßige KI-Updates oder Lessons Learned können strukturiert beschrieben werden

) | Datum: 01.12.2025 Kurator: Arno Schimmelpfennig


ℹ️ Executive Summary

Diese Woche beleuchtet der Podcast massive wirtschaftliche Defizite bei KI-Providern, Haftungsrisiken bei "halluzinierenden" Berichten und die Bildung von Monopolen durch Plattform-Sperren. Für den Ausschuss Normenpraxis ergeben sich daraus drei konkrete Handlungsfelder: Transparenzstandards, Interoperabilität und Governance in der Lieferkette.



1. Normungsbedarf: Transparenz und Qualitätssicherung (Fallbeispiel Deloitte)


Der aktuelle Fall, bei dem ein KI-generierter Bericht im kanadischen Gesundheitswesen nicht existente Studien zitierte, verdeutlicht eine kritische Lücke in der Qualitätssicherung.

  • Das Problem: KI-Halluzinationen fließen ungeprüft in Entscheidungsprozesse ein, die Personal und Versorgung betreffen.

  • Implikation für die Normung: Es besteht dringender Bedarf an Standards für Transparenz. Konkret wird eine Regelung diskutiert, die KI-generierte Inhalte kennzeichnungspflichtig macht.

  • Lösungsansatz: Einführung eines "TÜV-Siegels" für KI-Recherchen, das zwingend eine menschliche Überprüfung ("Human-in-the-Loop") vorschreibt, um Vertrauen zu sichern.

2. Normungsbedarf: Interoperabilität vs. "Walled Gardens" (Fallbeispiel WhatsApp)


Die Ankündigung von Meta, ab 2026 externe KI-Chatbots (wie ChatGPT oder Copilot) in WhatsApp zu blockieren, schafft faktische Monopole.

  • Das Problem: Nutzer werden in geschlossene Ökosysteme gedrängt; der Informationsfluss wird von einem Anbieter kontrolliert.

  • Implikation für die Normung: Hier müssen Standards für Interoperabilität greifen. Normen müssen sicherstellen, dass verschiedene Systeme miteinander kommunizieren können, um digitale Monopole und "geschlossene Gärten" zu verhindern.

3. Normungsbedarf: Sicherheit in der Lieferkette (Fallbeispiel OpenAI/Mixpanel)


Ein Datenleck bei einem Analysepartner von OpenAI zeigt, dass der Fokus nicht nur auf dem KI-Modell selbst liegen darf.

  • Das Problem: Die Sicherheit ist nur so stark wie das schwächste Glied. Sensible Nutzerdaten (Namen, E-Mails) wurden bei einem Drittanbieter geleakt.

  • Implikation für die Normung: Sicherheitsnormen müssen die gesamte Lieferkette (Supply Chain Security) abdecken, nicht nur den Primäranbieter.


4. Governance & "Real-World"-Gap


Der AI Act ist verabschiedet, trifft aber auf praktische Hürden.

  • Gap-Analyse: Beispiele aus Ecuador zeigen, dass ethische Richtlinien ohne Infrastruktur (Rechenzentren, Fachkräfte) wirkungslos bleiben.

  • Governance-Standards: Normung ist der Schlüssel zur Demokratisierung. Sie muss sicherstellen, dass nicht nur Ingenieure Regelwerke erstellen, sondern ein Gremium aus Ethikern, Sozialwissenschaftlern und Bürgern involviert ist. Governance-Standards fungieren hier als "Leitplanken", um KI gemeinwohlorientiert auszurichten.

💡 Diskussion im Hub


Basierend auf diesen Entwicklungen stellen sich für unsere Ausschussarbeit folgende Fragen:

  1. Haftung: Wer haftet, wenn KI Falschinformationen generiert, die zu finanziellen Schäden führen? Wie bilden wir dies in Normen ab?


  2. Souveränität: Wie unterstützen wir durch Normung die digitale Souveränität (vgl. Mexiko/Codlicur), um Abhängigkeiten von US-Providern zu verringern?


Zusammenfassung erstellt auf Basis des Transkripts "KI Ethik News" S02E01.