Transparency
Readiness
Article 50
Der Governance-Check für Unternehmen, die Chatbots, KI-generierte Inhalte, synthetische Medien, Deepfakes oder generative KI-Workflows (z.B. AI Agents, Copilot-Systeme) einsetzen oder bereitstellen.
Vier Transparenzpflichten – zwei Adressatenkreise
Ob ein Unternehmen als Anbieter/Provider oder als Betreiber/Deployer einzuordnen ist, richtet sich nach seiner konkreten Rolle in Entwicklung, Integration, Bereitstellung, Re-Branding, Inverkehrbringen, Inbetriebnahme und Änderung des jeweiligen Systems. Je nach Sachverhalt können Pflichten kumulativ anwendbar sein; insbesondere Re-Branding oder wesentliche Änderungen können im Einzelfall zusätzliche Anbieterpflichten auslösen – kein Automatismus.
Chatbots & KI-Interaktion
KI-Systeme, die für die direkte Interaktion mit natürlichen Personen bestimmt sind, müssen so konzipiert und entwickelt werden, dass betreffende Personen informiert werden, dass sie mit einem KI-System interagieren – sofern dies aus Sicht einer angemessen informierten, aufmerksamen und verständigen Person aufgrund der Umstände und des Nutzungskontexts nicht offensichtlich ist.
Maschinenlesbare Kennzeichnung
Provider von KI-Systemen, einschließlich general-purpose AI systems, soweit diese synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen oder manipulieren, müssen sicherstellen, dass Outputs in maschinenlesbarer Form gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind; Anforderungen an die konkrete technische Umsetzung bedürfen im Einzelfall weiterer Konkretisierung, u.a. durch noch nicht finale Kommissionsleitlinien, technische Standards und die künftige Vollzugspraxis.
Emotionserkennung & Biometrie
Deployer/Betreiber von Systemen zur Emotionserkennung oder biometrischen Kategorisierung müssen exponierte Personen über den Betrieb des Systems informieren; personenbezogene Daten sind nach Maßgabe der anwendbaren Datenschutzvorschriften zu verarbeiten. Je nach Einsatzkontext können neben Art. 50 weitere Pflichten oder Beschränkungen des AI Act sowie datenschutzrechtliche Anforderungen relevant werden; dies ist gesondert zu prüfen.
Deepfakes & öffentlicher Diskurs
Deployer/Betreiber, die KI-Systeme zur Erstellung oder Manipulation von Deepfake-Inhalten einsetzen, müssen deren künstlichen Ursprung offenlegen. Deepfakes sind KI-generierte oder manipulierte Bild-, Audio- oder Videoinhalte, die bestehenden Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähneln und fälschlich authentisch oder wahr erscheinen können. Art. 50 Abs. 4 erfasst auch KI-generierten oder manipulierten Text, der veröffentlicht wird, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren; der Begriff „Angelegenheiten von öffentlichem Interesse“ ist auslegungsbedürftig, kontextabhängig und noch nicht abschließend durch Behörden- oder Gerichtspraxis konkretisiert. Die Ausnahme greift bei menschlicher Überprüfung oder redaktioneller Kontrolle und redaktioneller Verantwortung für die Veröffentlichung. Bei offenkundig künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werken gilt eine abgeschwächte Offenlegungspflicht – die Offenlegung muss in geeigneter Weise erfolgen, ohne Darstellung oder Genuss unangemessen zu beeinträchtigen.
Gesetzliche Ausnahmen (Art. 50 Abs. 2 und 4)
(1) Rein assistive KI ohne wesentliche Veränderung des Inputs oder seiner Semantik ist ausgenommen (z.B. Rechtschreibkorrektur, Farbkorrektur). (2) Eng begrenzte Ausnahmen für gesetzlich zugelassene Strafverfolgungszwecke. (3) Die Draft Guidelines enthalten Diskussions- und Abgrenzungsfragen zu einzelnen Konstellationen; maßgeblich bleiben bis zu ihrer Finalisierung der Verordnungstext und die spätere Behörden- und Gerichtspraxis. Bei offenkundig künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werken gilt eine abgeschwächte Offenlegungspflicht.
Hinweis sonstige Regulierung: Transparenzkennzeichnungen nach Art. 50 ersetzen keine gesonderte Prüfung sonstiger regulatorischer Anforderungen, insbesondere nach Plattform-, Medien-, Urheber- oder Datenschutzrecht.
Hinweis Rechtsverbindlichkeit: Verbindlich sind Verordnungstext, künftige Durchführungsakte und die Auslegung durch zuständige Behörden und Gerichte, letztverbindlich durch den EuGH.
Was der Readiness Check bewertet
1. Rollenklärung
- Provider/Anbieter oder Deployer/Betreiber?
- Eigenes System oder API-Integration?
- Re-Branding, Inverkehrbringen, wesentliche Änderung – Anbieterpflichten? Kein Automatismus.
- Kumulative Anwendbarkeit prüfen
- Abgrenzung zu Art. 53 (GPAI-Modelle)
2. Governance-Lücken
- Fehlende Offenlegung / Labels
- Fehlende maschinenlesbare Kennzeichnung
- Fehlende Dokumentation & Nachweise
- Kein Approval-Workflow
- Vendor Governance für externe KI-Dienste
3. Readiness-Output
- Rollen- und Scope-Einordnung
- Evidenz-Checkliste
- Maßnahmen-Roadmap
- Management Summary
- Vorbereitung auf Code of Practice & Guidelines
Entwurfsleitlinien und Verhaltenskodizes (Art. 50 Abs. 7)
Die EU-Kommission hat im Mai 2026 Entwurfsleitlinien zur Umsetzung der Transparenzpflichten nach Art. 50 veröffentlicht. Die praktische Auslegung wird derzeit durch diese nicht verbindlichen Entwurfsleitlinien konkretisiert; ergänzend können freiwillige Verhaltenskodizes nach Art. 50 Abs. 7 praktische Orientierung bieten. Beide Instrumente erleichtern die praktische Umsetzung, ersetzen aber nicht die eigenständige rechtliche Prüfung des Einzelfalls. Verbindlich sind Verordnungstext, künftige Durchführungsakte sowie die Auslegung durch zuständige Behörden und Gerichte, letztverbindlich durch den EuGH.
AIGN Article 50 Readiness Pakete
Quick Check
Erstbewertung von 1–3 KI-Workflows: Art. 50-Relevanz, Rollenklärung (Provider / Deployer), kurze Maßnahmenliste.
Readiness Sprint
Strukturierte Bestandsaufnahme, Gap-Analyse, Evidenz-Checkliste, Offenlegungslogik, Vorbereitung unter Berücksichtigung eines freiwilligen Code of Practice und der Draft Guidelines – ohne Ersatz der Einzelfallprüfung. Implementierungs-Roadmap.
Vendor / Trust Label Pre-Check
Für KI-Anbieter, SaaS-Provider und Plattformen, die dokumentierte, compliance-orientierte Transparency Readiness gegenüber Enterprise-Kunden nachweisen müssen (inkl. Art. 50(2) maschinenlesbare Kennzeichnung).
Transparency wird ab August 2026 ein Vorstandsthema.
AIGN übersetzt Art. 50 in operative Governance, Evidenz und dokumentierte, compliance-orientierte Umsetzung – für Deployer/Betreiber und Provider/Anbieter gleichermaßen. Einzelfallprüfung inklusive.
Kontakt: upmann@now.digital