Versions Compared

Key

  • This line was added.
  • This line was removed.
  • Formatting was changed.
Comment: Ergänzung: Zuständigkeiten im AI Act

...

Gibt der AI Act Vorgaben an die Nutzer oder nur an Entwickler und Anbieter?

Antwort:
Der EU AI Act macht primär Vorgaben für Anbieter und Entwickler, aber Nutzer von Hochrisiko-KI haben ebenfalls Verpflichtungen:

Verpflichtungen für KI-Anbieter (z. B. Hersteller, Entwickler):

  • Risikobewertung, Zertifizierungen, Konformitätsbewertung (CE-Kennzeichnung).
  • Dokumentation und Transparenzpflichten.

Verpflichtungen für Unternehmen als Nutzer von KI:

  • Verantwortungsvolle Nutzung in sensiblen Bereichen (z. B. Personalentscheidungen, Medizin).
  • Kennzeichnungspflichten, wenn KI generierte Inhalte verwendet werden.
  • Haftung für fehlerhafte oder voreingenommene Entscheidungen.

Fazit: Auch Unternehmen, die KI nutzen, müssen Prüfprozesse einführen, um regulatorischen Risiken vorzubeugen.


Welche Behörde ist in Deutschland für den AI Act zuständig?

Antwort:
Noch keine endgültige Entscheidung, aber drei Behörden sind in Diskussion:

🏛 Bundesnetzagentur (BNetzA)

  • Favoritin für die zentrale Aufsicht.
  • Regulierung technischer Systeme (z. B. Telekommunikation) passt zur KI-Regulierung.

🏛 Bundesamt für Sicherheit in der Informationstechnik (BSI)

  • Wird wohl technische Prüfungen und Zertifizierungen übernehmen.
  • Hat bereits KI-Sicherheitsstandards veröffentlicht.

🏛 Datenschutzbehörden (BfDI & Länder-Datenschutzbehörden)

  • Für Datenschutzfragen und Grundrechtsschutz zuständig.

Die endgültige Entscheidung wird bis August 2025 erwartet. Unternehmen sollten sich bis dahin an bestehende BSI- und EU-Richtlinien halten.