Was ist begrenztes Risiko?
Als KI-Systeme mit begrenztem Risiko gelten Systeme, die zwar keine unmittelbare Gefährdung darstellen, aber das Potenzial haben, Menschen zu täuschen oder zu manipulieren, wenn sie nicht transparent gekennzeichnet sind.
Für diese Systeme gelten die Transparenzpflichten aus Artikel 50 des EU AI Act, die ab dem 2. August 2026 vollständig in Kraft treten.
Welche Transparenzpflichten gelten?
Chatbots und KI-Assistenten
Anbieter von KI-Systemen, die direkt mit Menschen interagieren (z. B. Chatbots, virtuelle Assistenten), müssen die Nutzer darüber informieren, dass sie mit einer KI kommunizieren – und zwar klar, rechtzeitig und verständlich. Die Kennzeichnung muss spätestens zu Beginn der Interaktion erfolgen.
Deepfakes
KI-generierte Bilder, Videos oder Audiodateien, die reale Personen, Orte oder Ereignisse nachbilden, müssen als KI-generiert oder KI-manipuliert gekennzeichnet werden. Ausnahmen gelten nur für künstlerische Werke, satireische Inhalte oder offensichtlich fiktive Szenarien – sofern die Nutzung der Betroffenen rechte beachtet wird.
KI-generierte Texte zu öffentlichen Angelegenheiten
Werden KI-generierte Texte mit dem Zweck veröffentlicht, die Öffentlichkeit zu informieren (z. B. Nachrichtenartikel, politische Kommunikation), müssen sie als KI-erzeugt gekennzeichnet sein.
Konkrete Beispiele
| Anwendungsfall | Pflicht | Ab wann |
|---|---|---|
| Kunden-Chatbot auf Website | Hinweis "Sie chatten mit einem KI-System" | August 2026 |
| KI-generiertes Produktbild | Kennzeichnung als KI-generiert | August 2026 |
| KI-Nachrichtenartikel | Kennzeichnung als KI-verfasst | August 2026 |
| Voice-KI im Kundenservice | Hinweis auf KI-Stimme zu Beginn | August 2026 |
| Avatar in Videomeeting | Kennzeichnung als synthetisch | August 2026 |
AI Act Compliance Tool
Ist Ihr KI-System EU AI Act-konform?
Kostenlos prüfen in 10 Minuten — spezifisch für Ihr Unternehmen und Ihre Branche.
Jetzt Risiko prüfen →