EU AI Act für Softwareentwickler: Technische Anforderungen

Der EU AI Act stellt nicht nur juristische, sondern auch technische Anforderungen. Was Entwicklerinnen und Entwickler jetzt wissen müssen.

Veröffentlicht: 1. Oktober 2025· 10 Min. Lesezeit

Technische Anforderungen bei Hochrisiko-KI

Wenn Sie an einem Hochrisiko-KI-System arbeiten, müssen Sie folgende technische Anforderungen in die Entwicklung einbauen:

  • Logging: Das System muss Ereignisse automatisch protokollieren (Art. 12). Die Logs müssen ausreichend Informationen für eine Nachvollziehbarkeit liefern.
  • Erklärbarkeit: Outputs müssen für Betreiber interpretierbar sein. Das erfordert Explainability-Komponenten (z. B. SHAP, LIME für ML-Modelle).
  • Robustheit: Das System muss gegen unerwartete Inputs und Adversarial Attacks robust sein.
  • Abbruchfunktion: Es muss eine "Human Override"-Funktion geben – das System muss von Menschen gestoppt oder übersteuert werden können.
  • Datenversionierung: Trainingsdaten müssen dokumentiert und rückverfolgbar sein.

"Compliance by Design": KI rechtskonform entwickeln

Ähnlich wie "Privacy by Design" bei der DSGVO empfiehlt sich "Compliance by Design" für den EU AI Act: Compliance-Anforderungen werden von Beginn an in den Entwicklungsprozess integriert, nicht nachträglich aufgesetzt.

Praktische Maßnahmen:

  • Risikomanagement früh im Entwicklungsprozess verankern
  • Datenversionierung (DVC, MLflow) von Beginn an einsetzen
  • Modell-Dokumentation (Model Cards) als Pflichtbestandteil einführen
  • Monitoring und Logging als Non-Functional Requirements definieren
  • Bias-Tests in CI/CD-Pipelines integrieren

Ist Ihr KI-System EU AI Act-konform?

Kostenlos prüfen in 10 Minuten — spezifisch für Ihr Unternehmen und Ihre Branche.

Jetzt Risiko prüfen →