Patrick Upmann · now.digital · AI Governance im Betrieb
Kritische
Entscheidungsräume.
HR-Entscheidungen. Finanzielle Entscheidungen. Wissensentscheidungen. Autonome Entscheidungen. Überall wo KI diese Räume betritt, entsteht regulatorische Verantwortung. Nicht beim Anbieter. Bei Ihnen.
Das Problem ist nicht die Technologie.
Das Problem ist, dass sie ohne Governance betrieben wird.
Sie gehen nicht in Systeme. Sie gehen dorthin, wo Unternehmen unter regulatorischem Druck Entscheidungen treffen.
August 2026 · Was konkret passiert
Ab August 2026 ist
Nicht-Compliance kein Graubereich mehr.
Der EU AI Act ist kein Zukunftsprojekt. Die Verbotstatbestände gelten seit Februar 2025. Pflichten für Hochrisiko-KI-Systeme – in HR, Finance, kritischen Infrastrukturen – greifen vollständig ab August 2026. Was das konkret bedeutet:
Ab August 2026 · Pflicht
Risikomanagementsystem
Art. 9 EU AI Act: Für jedes Hochrisiko-KI-System muss ein dokumentiertes Risikomanagementsystem über den gesamten Lebenszyklus nachgewiesen werden. Betreiber – nicht Anbieter – tragen die Pflicht. Workday Recruiting, SAP Risk Scoring, Salesforce Lead AI: alle betroffen.
Art. 9EU AI Act – Risikomanagement als Pflicht
Ab August 2026 · Pflicht
Technische Dokumentation
Art. 11 + Annex IV: Vollständige Systemdokumentation – Zweck, Trainingsdaten, Leistungsgrenzen, Bias-Tests, Versionierung. Diese muss dem European AI Office und nationalen Marktaufsichtsbehörden auf Anfrage sofort vorgelegt werden können. Nicht rekonstruierbar. Vorhanden.
Art. 11Technische Dokumentation – sofort abrufbar
Ab August 2026 · Pflicht
Human Oversight – operativ
Art. 14: Natürliche Personen müssen Hochrisiko-KI-Systeme effektiv überwachen können – mit Verstehen der Fähigkeiten und Grenzen, mit Eingriffsmöglichkeit, mit Recht zur Überschreibung. Ein Bestätigungsklick ist kein Oversight. Die Behörde wird das prüfen.
Art. 14Human Oversight – inhaltlich, nicht formal
Feb 25
Verbotstatbestände
Unzulässige KI-Praktiken verboten: Social Scoring, manipulative KI, Echtzeit-Biometrie in öffentlichen Räumen (mit Ausnahmen). Gilt seit 2. Februar 2025.
Aug 25
GPAI-Modelle
Pflichten für General Purpose AI-Modelle (Art. 51 ff.). Anbieter großer Modelle wie GPT-4, Claude, Gemini müssen Transparenz- und Bewertungspflichten erfüllen.
Jetzt vorbereiten
Aug 26
High-Risk-KI-Pflichten
Vollständige Geltung für Hochrisiko-KI-Systeme. HR-KI, Finance-KI, kritische Infrastruktur. Risikomanagementsystem, Dokumentation, Human Oversight – alles Pflicht. Das ist jetzt.
Aug 27
Vollständige Geltung
Alle verbleibenden Bestimmungen des EU AI Acts treten in Kraft. Marktaufsicht durch nationale Behörden und European AI Office operativ. Bußgelder: bis €35M oder 7 % Umsatz.
Hinweis: Strategisches Governance-Positionierungsdokument. Keine Rechtsberatung. Regulatorische Angaben zur Orientierung. Alle Produktnamen sind Marken der jeweiligen Inhaber. Studienquellen: Gartner, McKinsey, MIT, Bitkom, Deloitte, PwC, IBM, Forrester, Stanford HAI, IAPP, OWASP (2024).
Workday HCM · EU AI Act Annex III · HR-Entscheidungsraum · Tier 1
Workday HR
Workday beeinflusst Einstellungen, Bewertungen und Karrieren. Damit greift der EU AI Act direkt in Ihr HR-System. Das ist kein IT-Thema. Das ist Vorstandshaftung.
▸ Board Moment
Können Sie eine Workday-Entscheidung innerhalb von 24 Stunden vollständig erklären und regulatorisch verteidigen?
Entscheidungsrelevante KI-Funktionen – alle High Risk nach EU AI Act
🎯
Recruiting ScoringAlgorithmische Vorauswahl – Annex III, Nr. 4a
High Risk
🔗
Talent MatchingKI-Zuordnung Kandidaten zu Stellen – entscheidungsrelevant
High Risk
📈
Performance ScoresAlgorithm. Leistungsbewertung – Annex III, Nr. 4b
Succession PlanningAutomatisierte Karriere- und Nachfolgeprognosen
High Risk
① Warum kritisch – nicht optional
HR-KI ist per Gesetz Hochrisiko. Ab August 2026 vollständig durchsetzbar. Mit Bußgeldern bis €35M.
EU AI Act · Annex III
High Risk: HR & Beschäftigung
Einstellung, Beförderung, Leistungsbewertung – explizit in Annex III Nr. 4. Konformitätsbewertung, Risikomanagementsystem, technische Dokumentation Pflicht ab August 2026.
Kritisch · Aug. 2026
DSGVO Art. 22 · BDSG §26
Automatisierte Entscheidungen
Beschäftigte dürfen nicht ausschließlich automatisierten Entscheidungen mit erheblicher Wirkung unterworfen werden. Widerspruchsrecht strukturell sicherstellen – nicht nur deklarieren.
Hohe Priorität
§87 BetrVG
Zwingende Mitbestimmung
Technische Einrichtungen zur Leistungs- und Verhaltensüberwachung: zwingende Mitbestimmung. Ohne Betriebsvereinbarung zu KI-Funktionen: rechtlich angreifbar. Nur 17 % haben sie.
Mittel–Hoch
Haftung
Betreiber – nicht Anbieter
Workday ist Anbieter. Die Compliance-Verantwortung für Hochrisiko-KI liegt vollständig bei der Organisation. Workday-Vertragswerk schützt Sie nicht vor regulatorischer Haftung.
Kritisch
② Wo konkret Risiko entsteht
Risiko entsteht nicht bei Go-Live. Es entsteht täglich – bei jedem Score, jeder Empfehlung, jedem Klick auf „Bestätigen“.
Risiko 01
Kein Risikomanagementsystem
EU AI Act Art. 9 fordert ein vollständiges Risikomanagementsystem über den gesamten Lebenszyklus der Workday KI. Für die meisten Betreiber: nicht vorhanden.
68%ohne DPIA für Workday KI-Funktionen (Gartner 2024)
Risiko 02
Human Oversight nur formal
„Jemand klickt auf Bestätigen“ ist keine Aufsicht. EU AI Act Art. 14 fordert inhaltliches Verstehen und Eingriffsmöglichkeit. 83 % der HR-Entscheider verstehen KI-Scores nicht inhaltlich.
83%HR-Entscheider verstehen Score-Grundlage nicht (McKinsey 2024)
Risiko 03
Betriebsrat nicht einbezogen
Ohne Betriebsvereinbarung zu KI-gestützten HR-Funktionen: mitbestimmungswidrig. Bei nächster Betriebsratswahl oder Prüfung: sofortige Angreifbarkeit des gesamten Deployments.
17%mit Betriebsvereinbarung zu KI im HR (Bitkom 2024)
③ Warum bestehende Ansätze scheitern
Governance als Projekt endet. Workday-KI-Betrieb nicht.
Das strukturelle Problem: Jedes Workday-Release bringt neue KI-Features. Governance-Projekte reagieren nicht – sie enden.
Was meistens passiert
Richtlinie erstellt → Projekt abgeschlossen
DPIA dokumentiert → einmalig, nie aktualisiert
Betriebsvereinbarung unterschrieben → fertig
Workday Release: neue KI-Features → niemand prüft
Behörde prüft → keine aktuellen Nachweise
Beschäftigter widerspricht → kein Prozess vorhanden
Was Betrieb bedeutet
Kontinuierliches Monitoring der KI-Entscheidungen
Anpassung der DPIA bei jedem Workday-Update
Laufende Betriebsratskoordination bei Änderungen
Widerspruchsprozess strukturell verankert
Behördenanfrage: Dokumentation sofort abrufbar
Jederzeit verteidigbar – nicht nur am Go-Live-Tag
④ Was wir anders machen – Betrieb
Wir betreiben AI Governance für Workday HR – als dauerhafte Steuerungsfunktion, nicht als Projekt.
SAP S/4HANA · Finance & Core · DORA · SOX · HGB · Tier 1 · Größter Budget-Hebel
SAP / Finance KI
SAP entscheidet nicht sichtbar – aber es steuert finanzielle Realität. Der Vorstand unterschreibt den Abschluss. KI-gestützte Buchungen fließen ein.
▸ Board Moment
Kann Ihr Wirtschaftsprüfer nachvollziehen, welche SAP-Entscheidungen KI-gestützt entstanden sind – und wer dafür haftet?
Entscheidungsrelevante KI-Funktionen – direkt vorstandsrelevant
📒
Automatisierte BuchungenKI-gestützte Verbuchung – im Jahresabschluss wirksam
Audit Risk
🔮
Financial Forecasting AIML-basierte Umsatz- und Kostenprognosen – Vorstandsbasis
Vorstandshaftung
⚠️
Risk ScoringAutomatisiertes Kredit- und Lieferantenrisiko-Rating
High Risk
🤝
Supplier IntelligenceKI-gestützte Lieferantenbewertung und -selektion
Entscheidungsrelevant
① Warum kritisch – nicht optional
Finance-KI ist Vorstandsthema: Fehlerhafte automatisierte Entscheidungen schlagen direkt in Bilanz, Haftung und Wirtschaftsprüfung ein.
DORA · ICT Risk
Operational Resilience
Im Finanzsektor gilt DORA ab Januar 2025: KI-gestützte Kernsysteme müssen operational resilient sein. SAP als kritischer ICT-Drittanbieter ist laufend zu überwachen und zu dokumentieren.
KI-Systeme in kritischen Infrastrukturbereichen – auch Finance – können als Hochrisikosystem klassifiziert werden. Prüfpflichten und Dokumentationsanforderungen steigen ab August 2026.
Im Aufbau
Vorstandshaftung
Unterschrift auf KI-Basis
Der Vorstand unterschreibt Jahresabschluss und Lagebericht. KI-gestützte Buchungen, Forecasts und Risk Scores fließen ein. Ohne Governance: Unterschrift auf Basis unkontrollierter Automatisierung.
Vorstandsebene
② Wo konkret Risiko entsteht
Das Risiko entsteht dort, wo niemand mehr weiß, wie eine Finanzzahl zustande kam.
Risiko 01
Unkontrollierte Automatisierung
Buchungen, Freigaben und Risiko-Scores entstehen automatisiert – ohne Nachweis, welche KI-Logik welche Entscheidung getroffen hat. Im Prüfungsfall: nicht verteidigbar.
61%SAP-Nutzer ohne dokumentierte KI-Entscheidungspfade (Deloitte 2024)
Risiko 02
Gestiegener Prüfungsdruck
Wirtschaftsprüfer und Behörden fordern zunehmend Transparenz über automatisierte Systementscheidungen. KI-Blackboxes in Finance sind prüfungsrechtlich nicht mehr akzeptierbar.
44%CFOs berichten über gestiegenen Prüfungsdruck durch KI-Automatisierung (PwC 2024)
Risiko 03
Fehlerhafte Datenbasis
KI-Forecasts und Risk Scores sind nur so gut wie die Datenbasis. Datenenqualitätsprobleme in SAP führen zu systematisch falschen automatisierten Entscheidungen – skaliert, unsichtbar.
73%ERP-Implementierungen mit Datenqualitätsproblemen (Gartner 2024)
③ Warum bestehende Ansätze scheitern
SAP-Governance endet beim Go-Live. Finance-KI-Risiken entstehen danach – täglich.
Klassische SAP-Projekte fokussieren auf Implementierung und Datenmigration. Die KI-Entscheidungslogik im Betrieb bleibt unüberwacht.
Was meistens passiert
SAP geht live → KI-Funktionen aktiv → kein Monitoring
Automatische Buchungen laufen → kein Audit-Trail
Forecast-KI liefert Zahlen → Herkunft unklar
Wirtschaftsprüfer fragt → Antwort nicht möglich
DORA-Anforderungen → nicht strukturiert umgesetzt
Was Betrieb bedeutet
Laufendes Monitoring der KI-Buchungslogik
Vollständiger Audit-Trail für automatisierte Entscheidungen
Copilot greift auf unternehmensweites Wissen zu – ohne klassische Systemgrenzen. Das ist kein Chatbot. Das ist unkontrollierter Zugriff auf Ihr Unternehmenswissen im Maßstab.
▸ Board Moment
Wissen Sie, auf welche Daten Copilot aktuell zugreift – und was er daraus generiert, in wessen Namen?
Das strukturelle Risiko – anders als Workday oder SAP
📂
Unkontrollierter DatenzugriffSharePoint, Teams, Mails, Dateien – alles was der User sehen darf
Data Risk
✍️
Generierung ohne KontrolleMails, Reports, Präsentationen – automatisch, ohne Prüfung
Output Risk
👻
Shadow AI parallel71 % nutzen KI ohne IT-Wissen (Microsoft Work Trend Index 2024)
Kritisch
🔮
Hallucination in Business-KontextFalsche Zahlen in Verträgen, Kundenmails, Finanzreports
Haftungsrisiko
① Warum kritisch – nicht optional
Copilot ist anders als Workday. Das Risiko liegt nicht in Entscheidungen über Menschen – sondern im unkontrollierten Zugriff auf Ihr gesamtes Unternehmenswissen.
DSGVO · Datenzugriff
Personenbezogene Daten ohne Kontrolle
Copilot greift auf alle Daten zu, auf die der Nutzer Zugriff hat – inklusive personenbezogener Daten Dritter: HR-Akten, Kundendaten, M&A-Unterlagen. DSGVO-Zweckbindung und Zugriffskontrollen sind strukturell sicherzustellen.
Kritisch
NIS2 · Cybersecurity
Prompt Injection als Angriffsvektor
Copilot kann durch manipulierte Dokumente oder E-Mails für Prompt Injection missbraucht werden – ein Angreifer bringt KI dazu, sensible Daten preiszugeben oder fehlerhafte Aktionen auszuführen. NIS2 verlangt Schutzmaßnahmen auch für KI-Systeme.
Sicherheitsrisiko
Interne Policies
Shadow AI & Kontrollverlust
71 % der Mitarbeiter nutzen KI-Tools ohne IT-Wissen (Microsoft Work Trend Index 2024). Copilot ist offiziell ausgerollt – aber die Nutzung findet ohne Governance statt. Das ist kein Awareness-Problem. Das ist ein Struktur-Problem.
Mittel–Hoch
DORA · Finance
Operational Resilience für Finance-Sektor
Im Finanzsektor: Copilot als ICT-Werkzeug unterliegt DORA-Anforderungen. Operational Resilience, ICT-Risikodokumentation und Third-Party-Risk-Management auch für Microsoft als Anbieter.
Sektorspezifisch
② Wo konkret Risiko entsteht
Das Copilot-Risiko ist diffus. Es entsteht überall – in jedem Team, bei jedem Nutzer, mit jedem Prompt. Deshalb ist es gefährlicher als HR- oder Finance-KI.
Risiko 01
Over-sharing: HR, M&A, Vertrauliches
Copilot gibt Nutzern Zugang zu Daten, die technisch freigegeben aber faktisch nicht für sie bestimmt sind: Personalakten, M&A-Unterlagen, Vorstandsdokumente. Alles indexiert. Alles erreichbar.
49%teilen versehentlich sensible Daten über KI-Tools (IBM Security 2024)
Risiko 02
Hallucination in Geschäftsdokumenten
Falsche Zahlen in Finanzreports, erfundene Klauseln in Verträgen, fehlerhafte Kundenkommunikation. Copilot generiert überzeugend formuliert – und faktisch falsch. Ohne Governance: kein Vier-Augen-Prinzip.
38%KI-generierte Business-Dokumente enthalten faktische Fehler (Stanford HAI 2024)
Risiko 03
Kein Audit-Trail – nirgendwo
Wer hat welchen Prompt gesendet? Welche Daten wurden genutzt? Welches Dokument erzeugt? Ohne Governance: keine Antworten. Im Streit-, Haftungs- oder Prüfungsfall: fataler Nachteil.
Salesforce Einstein AI · Commercial-Entscheidungsraum · Tier 2 · Wachstum
Salesforce Einstein AI
KI entscheidet, welcher Kunde relevant ist. Welcher Deal gewonnen wird. Welcher Preis gilt. Oft ohne jede Kontrolle – und mit kartellrechtlichem Risiko.
▸ Board Moment
Weiß Ihr CRO, nach welcher Logik Einstein AI Leads bewertet – und ob diese Logik diskriminierungsfrei und kartellrechtskonform ist?
KI-gestützte Kundenbewertung kann diskriminieren. Pricing-KI kann kartellrechtlich relevant werden. Beide Risiken entstehen unsichtbar.
DSGVO · Profiling
Automatisiertes Kundenprofiling
Customer Scoring und Lead-Bewertung sind automatisiertes Profiling nach DSGVO. Transparenzpflichten und Widerspruchsrechte gelten auch im B2B-Kontext bei natürlichen Personen.
Mittel–Hoch
Antidiskriminierung
Bias in Customer Scoring
KI-Modelle reproduzieren systematisch Verzerrungen aus historischen Daten. Ohne Bias-Kontrolle: rechtliches und Reputationsrisiko. 41 % der Scoring-Modelle zeigen statistisch signifikanten Bias.
Kritisch
Kartellrecht
Algorithmische Preiskoordination
Wenn Pricing-KI Marktdaten nutzt und Preisempfehlungen erzeugt, kann das als koordiniertes Preisverhalten gewertet werden – auch ohne explizite Absprache zwischen Unternehmen.
Hohe Priorität
Forecast-Haftung
KI-Prognosen im Vorstandsbericht
KI-Forecasts, die in Vorstandsberichte, Investorenkommunikation oder M&A-Prozesse einfließen, schaffen Haftungsfragen bei Abweichungen – wenn die Modellbasis nicht dokumentiert ist.
Vorstandsrelevant
② Wo konkret Risiko entsteht
Commercial-KI ist der blinde Fleck – weil Vertrieb keine Governance-Kultur hat und niemand die Modelllogik hinterfragt.
Risiko 01
Bias im Lead Scoring
Einstein AI lernt aus historischen Vertriebsdaten. Wenn diese Verzerrungen enthalten, reproduziert die KI sie – systematisch, skaliert, ohne Sichtbarkeit. 41 % der Scoring-Modelle zeigen Bias.
41%KI-Scoring-Modelle mit statistisch signifikantem Bias (MIT AI Lab 2024)
Risiko 02
Forecast ohne Modellbasis
67 % der CROs nutzen KI-Forecasts, ohne deren Modellbasis zu kennen. Vorstandsentscheidungen auf Basis von KI-Prognosen, die niemand erklären kann: im Schadensfall nicht verteidigbar.
67%CROs nutzen KI-Forecasts ohne Modellkenntnis (Forrester 2024)
Risiko 03
Pricing ohne Compliance
Nur 29 % der Unternehmen prüfen Pricing-KI auf kartellrechtliche Konformität. Algorithmische Preisempfehlungen laufen ohne Compliance-Check – und skalieren kartellrechtliches Risiko mit jedem Deal.
29%prüfen Pricing-KI auf Kartellrechtskonformität (Deloitte 2024)
③ Warum bestehende Ansätze scheitern
Vertrieb will Geschwindigkeit. Governance bremst. Deshalb gibt es sie nicht. Das ist das Problem.
Weil das Risiko mit jedem Deal skaliert, der auf Basis unkontrollierter KI-Scores entsteht.
Was meistens passiert
Einstein AI aktiviert → Vertrieb nutzt es → fertig
Agentic AI · Autonome Entscheidungen · Thought Leadership · Tier 2
Agentic AI
Agenten handeln – ohne dass Organisationen es kontrollieren können. Das ist kein Zukunftsszenario. Das ist der Stand von 2025.
▸ Board Moment
Können Sie beschreiben, was Ihre KI-Agenten heute, in diesem Moment, tun – und in wessen Namen sie handeln?
Agentic AI im Unternehmenseinsatz – Realität 2025
🔗
Multi-Step WorkflowsAgenten planen, delegieren, führen aus – eigenständig
Unkontrolliert
🛠️
Tool Use & API-CallsAgenten rufen Systeme, Datenbanken, externe APIs auf
Expositionsrisiko
🧠
Autonome EntscheidungenKeine menschliche Prüfung im Loop – je nach Konfiguration
Hochrisiko
📧
KommunikationsagentenKI-Agenten versenden Mails, erstellen Verträge, buchen Termine
Haftungsrisiko
① Warum kritisch – nicht optional
Agentic AI schafft eine neue Governance-Kategorie: autonome Handlung ohne klaren menschlichen Eigentümer. Das ist regulatorisch Neuland – mit klarer Haftungslage.
EU AI Act · Agentic
Autonome Systeme im Scope
Die EU-Kommission hat klargestellt: agentic AI-Systeme fallen unter den EU AI Act. Betreiber tragen die volle Compliance-Verantwortung – für jede Agentenhandlung, nicht nur für die Systemkonfiguration.
Kritisch · 2026
Haftungsrecht
Wer haftet für Agenten-Handlungen?
Wenn ein Agent einen Vertrag initiiert, eine Mail sendet, Daten verändert oder eine Transaktion auslöst: Die KI haftet nicht. Der Anbieter haftet nicht. Die Organisation haftet – vollständig.
Kritisch
DSGVO
Datenzugriff ohne Zweckbindung
Agenten greifen autonom auf Daten zu, ohne dass jede Aktion einer expliziten DSGVO-Zweckbindung entspricht. Ohne strukturierte Governance: systematische DSGVO-Verletzung im Dauerbetrieb.
Hohe Priorität
Governance-Leerstelle
Keine Accountability-Struktur
Ohne klare Eigentümerschaft, Berechtigungsgrenzen und vollständige Protokollierung handeln Agenten in einem rechtlichen und organisatorischen Vakuum. Das ist der gefährlichste Zustand.
Kritisch
② Wo konkret Risiko entsteht
Agentisches Risiko ist nicht theoretisch. Es entsteht bei jedem Workflow, den niemand konfiguriert hat zu stoppen.
Risiko 01
Unklare Handlungsgrenzen
Was darf der Agent tun? Was nicht? Wann muss er stoppen und eskalieren? Ohne diese Grenzen handelt er nach interner KI-Logik – nicht nach Unternehmensinteresse oder Compliance.
89%Agentic-AI-Deployments ohne dokumentierte Handlungsgrenzen (Gartner 2024)
Risiko 02
Kein vollständiger Audit-Trail
Was hat der Agent getan? Welche Daten genutzt? Welche Systeme aufgerufen? Welche Outputs erzeugt? Ohne lückenloses Protokoll: keine Antworten im Prüfungsfall. Kein Nachweis. Keine Verteidigung.
91%Agentic-AI-Systeme ohne vollständigen Aktions-Audit-Trail (MIT 2024)
Risiko 03
Prompt Injection
Agenten können durch manipulierte Daten oder Dokumente dazu gebracht werden, unerwünschte Aktionen auszuführen. Dies ist das kritischste Sicherheitsrisiko für agentic AI – und weitgehend unbekannt in Governance-Diskussionen.
#1Kritischstes Sicherheitsrisiko für agentic AI (OWASP Top 10 LLM 2024)
③ Warum bestehende Ansätze scheitern
Agentic AI wird als Tech-Experiment behandelt. Governance wird für „später“ geplant. Das ist strukturell falsch.
Der Moment der ersten autonomen Handlung ist der Moment, ab dem Governance hätte vorhanden sein müssen.
Was meistens passiert
Pilot startet → Agent handelt → keine Grenzen definiert
Kein Berechtigungsmodell für Systemzugriffe
Kein Human-in-the-Loop für kritische Schritte
Kein Audit-Trail der Agentenaktionen
Governance-Diskussion für „Phase 2″ geplant
Was Betrieb bedeutet
Handlungsgrenzen definiert vor erstem Produktiveinsatz
Berechtigungsmodell: was darf der Agent berühren
Human-in-the-Loop für kritische Entscheidungsschritte
Vollständiger Aktions-Audit-Trail von Tag 1
Laufende Überwachung aller Agentenhandlungen
④ Was wir anders machen – Betrieb
Wir betreiben Governance für agentic AI – bevor, während und nach dem ersten Einsatz. Dauerhaft.
🚧
Handlungsgrenzen
Wir definieren, was Agenten dürfen und was nicht – und bauen technische und organisatorische Stopplinien ein. Keine Hoffnung. Struktur.
👁️
Aktions-Monitoring
Laufende Überwachung aller Agentenhandlungen. Jeder API-Call, jede Datenbewegung, jede Output-Generierung – protokolliert und auswertbar.
🔐
Berechtigungsmodell
Minimaler Datenzugriff, begrenzte Systemrechte, explizite Freigaben für jede Aktion-Klasse. Nicht Standard-Konfiguration übernehmen.
🛡️
Prompt Injection Defense
Technische und prozessuale Schutzmaßnahmen gegen Manipulation von Agenten durch externe Inputs – Dokumente, Mails, Daten.
Kein Projekt. Kein Go-Live. Dauerhafter Betrieb.
⑤ Wie der Einstieg aussieht – Governance Check
Governance Check: Agentic AI
Wir prüfen, welche Agenten-Systeme aktiv sind, welche Handlungen unkontrolliert entstehen – und bauen Governance vor dem nächsten Einsatz auf.
01
Agenten-Inventar
Alle aktiven agentic AI-Systeme erfassen. Handlungsgrenzen, Systemzugriffe und Protokollierung pro Agent bewerten.
02
Risikoexposition
Wo handeln Agenten heute ohne Governance? Kritische Lücken identifizieren. Sofortige Maßnahmen definieren.
03
Betriebsplan
Aufbau der laufenden Governance-Funktion für agentic AI – skalierbar, auditierbar, regulatorisch vertretbar.
Das Problem ist nicht die Technologie. Das Problem ist, dass sie ohne Governance betrieben wird.
Systemvergleich · Entscheidungsräume unter regulatorischem Druck
Fünf Entscheidungsräume. Ein Governance-Problem.
Entscheidungsraum
System
Risikotyp
Primäre Regulatorik
Budget-Hebel
Dringlichkeit
HR-Entscheidungen
Workday HCM
Entscheidungen über Menschen
EU AI Act Annex III · DSGVO Art. 22 · §87 BetrVG
CHRO · BR · Legal
Kritisch · Aug. 26
Finanzielle Entscheidungen
SAP S/4HANA
Automatisierte Finance-KI
DORA · SOX · HGB · EU AI Act
CFO · Audit · Vorstand
Größter Budget-Hebel
Wissensentscheidungen
Microsoft Copilot
Unkontrollierter Datenzugriff
DSGVO · NIS2 · DORA (Finance)
CIO · CISO · DPO
Überall · Sofort
Commercial-Entscheidungen
Salesforce Einstein
Bias · Pricing · Kartellrecht
DSGVO Profiling · Kartellrecht
CCO · CRO · Legal
Phase 2
Autonome Entscheidungen
Agentic AI
Handlung ohne Eigentümer
EU AI Act · Haftungsrecht · DSGVO
CTO · Legal · Board
Thought Leadership
Governance Check · Alle Entscheidungsräume
Bevor Ihre Systeme für Sie entscheiden – stellen Sie sicher, dass Governance mitläuft.
Ein Governance Check klärt für jeden Ihrer kritischen Entscheidungsräume: Wo besteht regulatorische Exposition? Was muss vor August 2026 getan werden? Wie sieht dauerhafter Governance-Betrieb aus?
Welche KI-Funktionen in Ihren Systemen aktiv und regulatorisch relevant sind
Wo konkrete Risiken nach EU AI Act, DSGVO, DORA und sektorspezifischen Regelungen bestehen
Was vor August 2026 zwingend erledigt sein muss – priorisiert nach Budget-Druck und Haftungsrisiko
Wie Governance operativ als laufende Steuerungsfunktion aufgebaut wird – kein Projekt, kein Go-Live
Strategisches Governance-Positionierungsdokument. Keine Rechtsberatung. Regulatorische Angaben zur Orientierung. Alle Produktnamen sind Marken der jeweiligen Inhaber. Studienquellen: Gartner, McKinsey, MIT, Bitkom, Deloitte, PwC, IBM, Forrester, Stanford HAI, IAPP, OWASP (2024). EU AI Act Artikel-Referenzen beziehen sich auf den finalen Gesetzestext (ABl. L 2024/1689).