Page History
...
Gibt der AI Act Vorgaben an die Nutzer oder nur an Entwickler und Anbieter?
Antwort:
Der EU AI Act macht primär Vorgaben für Anbieter und Entwickler, aber Nutzer von Hochrisiko-KI haben ebenfalls Verpflichtungen:
✅ Verpflichtungen für KI-Anbieter (z. B. Hersteller, Entwickler):
- Risikobewertung, Zertifizierungen, Konformitätsbewertung (CE-Kennzeichnung).
- Dokumentation und Transparenzpflichten.
✅ Verpflichtungen für Unternehmen als Nutzer von KI:
- Verantwortungsvolle Nutzung in sensiblen Bereichen (z. B. Personalentscheidungen, Medizin).
- Kennzeichnungspflichten, wenn KI generierte Inhalte verwendet werden.
- Haftung für fehlerhafte oder voreingenommene Entscheidungen.
Fazit: Auch Unternehmen, die KI nutzen, müssen Prüfprozesse einführen, um regulatorischen Risiken vorzubeugen.
Welche Behörde ist in Deutschland für den AI Act zuständig?
Antwort:
Noch keine endgültige Entscheidung, aber drei Behörden sind in Diskussion:
🏛 Bundesnetzagentur (BNetzA)
- Favoritin für die zentrale Aufsicht.
- Regulierung technischer Systeme (z. B. Telekommunikation) passt zur KI-Regulierung.
🏛 Bundesamt für Sicherheit in der Informationstechnik (BSI)
- Wird wohl technische Prüfungen und Zertifizierungen übernehmen.
- Hat bereits KI-Sicherheitsstandards veröffentlicht.
🏛 Datenschutzbehörden (BfDI & Länder-Datenschutzbehörden)
- Für Datenschutzfragen und Grundrechtsschutz zuständig.
Die endgültige Entscheidung wird bis August 2025 erwartet. Unternehmen sollten sich bis dahin an bestehende BSI- und EU-Richtlinien halten.