Artikel 5 EU AI Act: Die verbotenen KI-Praktiken im Detail

Artikel 5 des EU AI Act definiert KI-Praktiken, die in der EU vollständig verboten sind – ohne Ausnahmemöglichkeit für Unternehmen. Diese Verbote gelten seit dem 2. Februar 2025 und stellen die strengste Regulierungsebene des Gesetzes dar. Ein Verstoß kann Bußgelder von bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes nach sich ziehen.

Verbot 1: Unterschwellige Manipulation (Art. 5 Abs. 1 lit. a)

Verboten ist der Einsatz von KI-Systemen, die unterschwellige Techniken einsetzen, die das Bewusstsein einer Person umgehen, um deren Verhalten zu beeinflussen und der Person oder anderen erheblichen Schaden zuzufügen. Beispiele für verbotene Systeme: Werbetechnologie, die unbewusste Impulse ausnutzt, um Kaufentscheidungen zu manipulieren, KI-gestützte Preisgestaltung, die kognitive Schwächen gezielt ausnutzt, Empfehlungsalgorithmen, die bewusst Suchtverhalten erzeugen. Entscheidend ist das kumulierte Vorliegen von: unterschwelliger Technik + Bewusstsein-Umgehung + erheblicher Schaden.

Verbot 2: Ausnutzung von Schwachstellen (Art. 5 Abs. 1 lit. b)

Verboten ist der Einsatz von KI zur Ausnutzung von Schwächen oder Schutzbedürftigkeit bestimmter Personengruppen: Kinder, ältere Personen, Menschen mit Behinderungen oder psychischen Erkrankungen. Das Verbot gilt, wenn die Ausnutzung geeignet ist, erheblichen Schaden zu verursachen. Praktische Relevanz: KI-gestützte Spielmechaniken, die auf Suchtverhalten von Kindern ausgerichtet sind (loot boxes, dark patterns), KI-Beratungssysteme für ältere Menschen, die zur Vermögensübertragung manipulieren, KI im psychologischen Support, der Abhängigkeit erzeugt.

Verbot 3: Social Scoring durch öffentliche Stellen (Art. 5 Abs. 1 lit. c)

Verboten ist die Bewertung natürlicher Personen auf der Grundlage ihres Sozialverhaltens oder ihrer persönlichen Eigenschaften durch öffentliche Stellen, wenn dies zu einer Benachteiligung führt. Das in China praktizierte Social Credit System ist der paradigmatische Fall. In der EU gilt: Staatliche oder quasi-staatliche Stellen dürfen keine umfassenden Verhaltensscores erstellen und für Entscheidungen nutzen. Für Unternehmen: Extensive Kundenbewertungssysteme, die in quasi-staatlichen Kontexten (z.B. öffentliche Versorgungsunternehmen, Telekommunikation) eingesetzt werden, müssen geprüft werden.

Verbot 4: Predictive Policing für Individuen (Art. 5 Abs. 1 lit. d)

Verboten ist die Risikobewertung natürlicher Personen für zukünftige Straftaten, die allein auf Profiling, Persönlichkeitsmerkmalen oder ohne objektive und überprüfbare Tatsachen basiert. Das Verbot schützt vor "Pre-Crime"-Szenarien: KI-Systeme, die basierend auf demographischen Daten vorhersagen, wer straffällig wird, und diese Personen für Strafverfolgung oder Überwachung markieren. Erlaubt bleibt: KI zur Analyse krimineller Muster, Hotspot-Analyse, datenbasierte Verbrechensvorhersage ohne individuelle Risikoeinschätzung.

Verbote 5–7: Biometrische Fernidentifikation

Art. 5 Abs. 1 lit. e–h enthält Verbote zur biometrischen Fernidentifikation in Echtzeit. Grundsatz: Biometrische Echtzeit-Fernidentifikation in öffentlichen Räumen ist verboten – mit eng begrenzten Ausnahmen für Strafverfolgungsbehörden (Terrorismus, schwere Straftaten, Suche nach vermissten Personen). Verboten für Unternehmen: Einsatz von Gesichtserkennung in Echtzeit in öffentlichen oder halböffentlichen Räumen (Bahnhöfe, Einkaufszentren, Veranstaltungen). Nachweis-Biometriesysteme (nach der Tat, nicht in Echtzeit) sind nicht generell verboten, aber stark reguliert.

Compliance-Prüfung: Sind Sie betroffen?

Prüfen Sie Ihr KI-Portfolio systematisch: Erstellen Sie eine Liste aller KI-Systeme, die mit Verhaltens- oder Personendaten arbeiten. Prüfen Sie für jedes System: Beeinflusst es Verhalten unterschwellig? Nutzt es Schutzbedürftigkeit aus? Erstellt es umfassende Personenscores? Macht es Kriminalitätsvorhersagen für Individuen? Setzt es Biometrie in öffentlichen Räumen ein? Bei Ja: Sofortige Prüfung durch einen KI-Rechtsexperten erforderlich. Diese Verbote gelten seit dem 2. Februar 2025 – ein verzögertes Handeln erhöht das Haftungsrisiko erheblich.

Ist Ihr KI-System EU AI Act-konform?

Kostenlos prüfen in 10 Minuten — spezifisch für Ihr Unternehmen und Ihre Branche.

Jetzt Risiko prüfen →