Anforderungen an die menschliche Aufsicht
Artikel 14 verlangt, dass Hochrisiko-KI-Systeme mit geeigneten Werkzeugen ausgestattet sind, die eine wirksame menschliche Aufsicht ermöglichen. Im Einzelnen:
- Das System muss von den verantwortlichen Personen vollständig verstanden werden können
- Anomalien, Dysfunktionen und unerwartete Leistungsausfälle müssen erkannt werden können
- Das System muss jederzeit überbrückt oder gestoppt werden können
- Outputs müssen interpretierbar und überprüfbar sein
- Vulnerable Gruppen müssen identifiziert und besonders berücksichtigt werden können
"Human in the Loop", "Human on the Loop" und "Human in Command"
Der EU AI Act unterscheidet implizit zwischen verschiedenen Aufsichtsmodellen:
Human in the Loop: Ein Mensch ist aktiv in jeden Entscheidungsprozess eingebunden. Dieser Ansatz ist bei kritischen Entscheidungen (z. B. Kreditzulassung, Asylantragsbearbeitung) sinnvoll.
Human on the Loop: Das System trifft Entscheidungen automatisch, aber ein Mensch überwacht den Prozess und kann eingreifen. Geeignet für Systeme mit hohem Volumen bei geringerem Einzelrisiko.
Human in Command: Ein Mensch kann das System jederzeit abstellen oder übersteuern. Dies ist die Minimalanforderung für alle Hochrisiko-KI-Systeme.
AI Act Compliance Tool
Ist Ihr KI-System EU AI Act-konform?
Kostenlos prüfen in 10 Minuten — spezifisch für Ihr Unternehmen und Ihre Branche.
Jetzt Risiko prüfen →