Systeme unter Aufsicht – AI Governance

Kritische Entscheidungsräume · now.digital
Patrick Upmann · now.digital · AI Governance im Betrieb

Kritische
Entscheidungsräume.

HR-Entscheidungen. Finanzielle Entscheidungen. Wissensentscheidungen. Autonome Entscheidungen. Überall wo KI diese Räume betritt, entsteht regulatorische Verantwortung. Nicht beim Anbieter. Bei Ihnen.

Das Problem ist nicht die Technologie.
Das Problem ist, dass sie ohne Governance betrieben wird.
EU AI Act · Vollständige Geltung
Aug. 2026
High-Risk-KI-Pflichten für HR, Finance und kritische Prozesse gelten vollständig. Das Compliance-Fenster schließt sich jetzt.
Unternehmen ohne AI Governance
74%
Betreiben aktive KI-Systeme ohne dokumentiertes Risikomanagementsystem. (Gartner AI Governance Survey 2024)
Bußgeld EU AI Act max.
€35M
oder 7 % des weltweiten Jahresumsatzes für Verstöße bei Hochrisiko-KI-Systemen. (Art. 99 EU AI Act)
Unternehmen mit Betriebsvereinbarung KI
17%
Nur 17 % der deutschen Unternehmen haben eine Betriebsvereinbarung zu KI-gestützten HR-Systemen. (Bitkom 2024)
August 2026 · Was konkret passiert

Ab August 2026 ist
Nicht-Compliance kein Graubereich mehr.

Der EU AI Act ist kein Zukunftsprojekt. Die Verbotstatbestände gelten seit Februar 2025. Pflichten für Hochrisiko-KI-Systeme – in HR, Finance, kritischen Infrastrukturen – greifen vollständig ab August 2026. Was das konkret bedeutet:

Ab August 2026 · Pflicht
Risikomanagementsystem
Art. 9 EU AI Act: Für jedes Hochrisiko-KI-System muss ein dokumentiertes Risikomanagementsystem über den gesamten Lebenszyklus nachgewiesen werden. Betreiber – nicht Anbieter – tragen die Pflicht. Workday Recruiting, SAP Risk Scoring, Salesforce Lead AI: alle betroffen.
Art. 9EU AI Act – Risikomanagement als Pflicht
Ab August 2026 · Pflicht
Technische Dokumentation
Art. 11 + Annex IV: Vollständige Systemdokumentation – Zweck, Trainingsdaten, Leistungsgrenzen, Bias-Tests, Versionierung. Diese muss dem European AI Office und nationalen Marktaufsichtsbehörden auf Anfrage sofort vorgelegt werden können. Nicht rekonstruierbar. Vorhanden.
Art. 11Technische Dokumentation – sofort abrufbar
Ab August 2026 · Pflicht
Human Oversight – operativ
Art. 14: Natürliche Personen müssen Hochrisiko-KI-Systeme effektiv überwachen können – mit Verstehen der Fähigkeiten und Grenzen, mit Eingriffsmöglichkeit, mit Recht zur Überschreibung. Ein Bestätigungsklick ist kein Oversight. Die Behörde wird das prüfen.
Art. 14Human Oversight – inhaltlich, nicht formal
Feb 25
Verbotstatbestände
Unzulässige KI-Praktiken verboten: Social Scoring, manipulative KI, Echtzeit-Biometrie in öffentlichen Räumen (mit Ausnahmen). Gilt seit 2. Februar 2025.
Aug 25
GPAI-Modelle
Pflichten für General Purpose AI-Modelle (Art. 51 ff.). Anbieter großer Modelle wie GPT-4, Claude, Gemini müssen Transparenz- und Bewertungspflichten erfüllen.
Jetzt vorbereiten
Aug 26
High-Risk-KI-Pflichten
Vollständige Geltung für Hochrisiko-KI-Systeme. HR-KI, Finance-KI, kritische Infrastruktur. Risikomanagementsystem, Dokumentation, Human Oversight – alles Pflicht. Das ist jetzt.
Aug 27
Vollständige Geltung
Alle verbleibenden Bestimmungen des EU AI Acts treten in Kraft. Marktaufsicht durch nationale Behörden und European AI Office operativ. Bußgelder: bis €35M oder 7 % Umsatz.
Hinweis: Strategisches Governance-Positionierungsdokument. Keine Rechtsberatung. Regulatorische Angaben zur Orientierung. Alle Produktnamen sind Marken der jeweiligen Inhaber. Studienquellen: Gartner, McKinsey, MIT, Bitkom, Deloitte, PwC, IBM, Forrester, Stanford HAI, IAPP, OWASP (2024).
Workday HCM · EU AI Act Annex III · HR-Entscheidungsraum · Tier 1

Workday
HR

Workday beeinflusst Einstellungen, Bewertungen und Karrieren.
Damit greift der EU AI Act direkt in Ihr HR-System.
Das ist kein IT-Thema. Das ist Vorstandshaftung.

▸ Board Moment

Können Sie eine Workday-Entscheidung innerhalb von 24 Stunden vollständig erklären und regulatorisch verteidigen?

Entscheidungsrelevante KI-Funktionen – alle High Risk nach EU AI Act
🎯
Recruiting ScoringAlgorithmische Vorauswahl – Annex III, Nr. 4a
High Risk
🔗
Talent MatchingKI-Zuordnung Kandidaten zu Stellen – entscheidungsrelevant
High Risk
📈
Performance ScoresAlgorithm. Leistungsbewertung – Annex III, Nr. 4b
High Risk
💶
Compensation EmpfehlungenKI-gestützte Gehaltsvorschläge – entscheidungsrelevant
High Risk
🏆
Succession PlanningAutomatisierte Karriere- und Nachfolgeprognosen
High Risk
① Warum kritisch – nicht optional
HR-KI ist per Gesetz Hochrisiko. Ab August 2026 vollständig durchsetzbar. Mit Bußgeldern bis €35M.
EU AI Act · Annex III
High Risk: HR & Beschäftigung
Einstellung, Beförderung, Leistungsbewertung – explizit in Annex III Nr. 4. Konformitätsbewertung, Risikomanagementsystem, technische Dokumentation Pflicht ab August 2026.
Kritisch · Aug. 2026
DSGVO Art. 22 · BDSG §26
Automatisierte Entscheidungen
Beschäftigte dürfen nicht ausschließlich automatisierten Entscheidungen mit erheblicher Wirkung unterworfen werden. Widerspruchsrecht strukturell sicherstellen – nicht nur deklarieren.
Hohe Priorität
§87 BetrVG
Zwingende Mitbestimmung
Technische Einrichtungen zur Leistungs- und Verhaltensüberwachung: zwingende Mitbestimmung. Ohne Betriebsvereinbarung zu KI-Funktionen: rechtlich angreifbar. Nur 17 % haben sie.
Mittel–Hoch
Haftung
Betreiber – nicht Anbieter
Workday ist Anbieter. Die Compliance-Verantwortung für Hochrisiko-KI liegt vollständig bei der Organisation. Workday-Vertragswerk schützt Sie nicht vor regulatorischer Haftung.
Kritisch
② Wo konkret Risiko entsteht
Risiko entsteht nicht bei Go-Live. Es entsteht täglich – bei jedem Score, jeder Empfehlung, jedem Klick auf „Bestätigen“.
Risiko 01
Kein Risikomanagementsystem
EU AI Act Art. 9 fordert ein vollständiges Risikomanagementsystem über den gesamten Lebenszyklus der Workday KI. Für die meisten Betreiber: nicht vorhanden.
68%ohne DPIA für Workday KI-Funktionen (Gartner 2024)
Risiko 02
Human Oversight nur formal
„Jemand klickt auf Bestätigen“ ist keine Aufsicht. EU AI Act Art. 14 fordert inhaltliches Verstehen und Eingriffsmöglichkeit. 83 % der HR-Entscheider verstehen KI-Scores nicht inhaltlich.
83%HR-Entscheider verstehen Score-Grundlage nicht (McKinsey 2024)
Risiko 03
Betriebsrat nicht einbezogen
Ohne Betriebsvereinbarung zu KI-gestützten HR-Funktionen: mitbestimmungswidrig. Bei nächster Betriebsratswahl oder Prüfung: sofortige Angreifbarkeit des gesamten Deployments.
17%mit Betriebsvereinbarung zu KI im HR (Bitkom 2024)
③ Warum bestehende Ansätze scheitern
Governance als Projekt endet. Workday-KI-Betrieb nicht.
Das strukturelle Problem: Jedes Workday-Release bringt neue KI-Features. Governance-Projekte reagieren nicht – sie enden.
Was meistens passiert
  • Richtlinie erstellt → Projekt abgeschlossen
  • DPIA dokumentiert → einmalig, nie aktualisiert
  • Betriebsvereinbarung unterschrieben → fertig
  • Workday Release: neue KI-Features → niemand prüft
  • Behörde prüft → keine aktuellen Nachweise
  • Beschäftigter widerspricht → kein Prozess vorhanden
Was Betrieb bedeutet
  • Kontinuierliches Monitoring der KI-Entscheidungen
  • Anpassung der DPIA bei jedem Workday-Update
  • Laufende Betriebsratskoordination bei Änderungen
  • Widerspruchsprozess strukturell verankert
  • Behördenanfrage: Dokumentation sofort abrufbar
  • Jederzeit verteidigbar – nicht nur am Go-Live-Tag
④ Was wir anders machen – Betrieb
Wir betreiben AI Governance für Workday HR – als dauerhafte Steuerungsfunktion, nicht als Projekt.
🔍
Laufende Kontrolle
Monitoring aller KI-gestützten HR-Entscheidungen. Jeder Score, jede Empfehlung – nachvollziehbar, dokumentiert, verteidigbar.
🔄
Release-Governance
Jedes Workday-Update wird bewertet. Neue KI-Features: Risikoklassifikation vor Aktivierung. Keine unkontrollierte Erweiterung.
📋
Audit-Fähigkeit
Bei Behördenprüfung oder Betriebsratsanfrage: vollständige Dokumentation sofort abrufbar. Nicht erst zu rekonstruieren.
🤝
HR · Legal · IT · BR
Wir koordinieren die vier Stakeholder, die Workday-Governance erfordert – strukturiert, laufend, ohne Reibungsverluste.
Kein Projekt. Kein Go-Live. Dauerhafter Betrieb.
⑤ Wie der Einstieg aussieht – Governance Check
Governance Check: Workday HR
45 Minuten Erstgespräch. Ergebnis: Sie wissen, wo Sie stehen und was vor August 2026 getan werden muss. Kein Angebot vor dem Gespräch.
01
Inventar
Alle aktiven Workday KI-Funktionen erfassen, gegen EU AI Act, DSGVO und BetrVG spiegeln. Risikoklassifikation je Funktion.
02
Exposition
Regulatorische Risiken priorisieren. Was ist kritisch, was hat Zeit, was muss sofort gestoppt oder dokumentiert werden.
03
Betriebsplan
Roadmap für den Aufbau der Governance-Betriebsfunktion – mit Eigentümern, Prozessen und Zeitplan vor August 2026.
SAP S/4HANA · Finance & Core · DORA · SOX · HGB · Tier 1 · Größter Budget-Hebel

SAP /
Finance KI

SAP entscheidet nicht sichtbar –
aber es steuert finanzielle Realität.
Der Vorstand unterschreibt den Abschluss. KI-gestützte Buchungen fließen ein.

▸ Board Moment

Kann Ihr Wirtschaftsprüfer nachvollziehen, welche SAP-Entscheidungen KI-gestützt entstanden sind – und wer dafür haftet?

Entscheidungsrelevante KI-Funktionen – direkt vorstandsrelevant
📒
Automatisierte BuchungenKI-gestützte Verbuchung – im Jahresabschluss wirksam
Audit Risk
🔮
Financial Forecasting AIML-basierte Umsatz- und Kostenprognosen – Vorstandsbasis
Vorstandshaftung
⚠️
Risk ScoringAutomatisiertes Kredit- und Lieferantenrisiko-Rating
High Risk
🤝
Supplier IntelligenceKI-gestützte Lieferantenbewertung und -selektion
Entscheidungsrelevant
① Warum kritisch – nicht optional
Finance-KI ist Vorstandsthema: Fehlerhafte automatisierte Entscheidungen schlagen direkt in Bilanz, Haftung und Wirtschaftsprüfung ein.
DORA · ICT Risk
Operational Resilience
Im Finanzsektor gilt DORA ab Januar 2025: KI-gestützte Kernsysteme müssen operational resilient sein. SAP als kritischer ICT-Drittanbieter ist laufend zu überwachen und zu dokumentieren.
Finanzsektor · Jetzt
SOX / HGB
Rechnungslegungspflicht
Automatisierte Buchungen und KI-Forecasts berühren Rechnungslegungspflichten direkt. Wirtschaftsprüfer erwarten vollständige Nachvollziehbarkeit jeder wesentlichen Systementscheidung.
Kritisch
EU AI Act
Kritische Infrastruktur
KI-Systeme in kritischen Infrastrukturbereichen – auch Finance – können als Hochrisikosystem klassifiziert werden. Prüfpflichten und Dokumentationsanforderungen steigen ab August 2026.
Im Aufbau
Vorstandshaftung
Unterschrift auf KI-Basis
Der Vorstand unterschreibt Jahresabschluss und Lagebericht. KI-gestützte Buchungen, Forecasts und Risk Scores fließen ein. Ohne Governance: Unterschrift auf Basis unkontrollierter Automatisierung.
Vorstandsebene
② Wo konkret Risiko entsteht
Das Risiko entsteht dort, wo niemand mehr weiß, wie eine Finanzzahl zustande kam.
Risiko 01
Unkontrollierte Automatisierung
Buchungen, Freigaben und Risiko-Scores entstehen automatisiert – ohne Nachweis, welche KI-Logik welche Entscheidung getroffen hat. Im Prüfungsfall: nicht verteidigbar.
61%SAP-Nutzer ohne dokumentierte KI-Entscheidungspfade (Deloitte 2024)
Risiko 02
Gestiegener Prüfungsdruck
Wirtschaftsprüfer und Behörden fordern zunehmend Transparenz über automatisierte Systementscheidungen. KI-Blackboxes in Finance sind prüfungsrechtlich nicht mehr akzeptierbar.
44%CFOs berichten über gestiegenen Prüfungsdruck durch KI-Automatisierung (PwC 2024)
Risiko 03
Fehlerhafte Datenbasis
KI-Forecasts und Risk Scores sind nur so gut wie die Datenbasis. Datenenqualitätsprobleme in SAP führen zu systematisch falschen automatisierten Entscheidungen – skaliert, unsichtbar.
73%ERP-Implementierungen mit Datenqualitätsproblemen (Gartner 2024)
③ Warum bestehende Ansätze scheitern
SAP-Governance endet beim Go-Live. Finance-KI-Risiken entstehen danach – täglich.
Klassische SAP-Projekte fokussieren auf Implementierung und Datenmigration. Die KI-Entscheidungslogik im Betrieb bleibt unüberwacht.
Was meistens passiert
  • SAP geht live → KI-Funktionen aktiv → kein Monitoring
  • Automatische Buchungen laufen → kein Audit-Trail
  • Forecast-KI liefert Zahlen → Herkunft unklar
  • Wirtschaftsprüfer fragt → Antwort nicht möglich
  • DORA-Anforderungen → nicht strukturiert umgesetzt
Was Betrieb bedeutet
  • Laufendes Monitoring der KI-Buchungslogik
  • Vollständiger Audit-Trail für automatisierte Entscheidungen
  • Forecast-Governance: Datenquellen, Logik, Plausibilität
  • DORA-Dokumentation als kontinuierliche Funktion
  • Wirtschaftsprüfer-Schnittstelle: Antworten sofort
④ Was wir anders machen – Betrieb
Wir betreiben Governance für SAP Finance-KI – für Prüfungsbereitschaft als Dauerzustand.
📊
Entscheidungs-Audit
Laufende Dokumentation aller KI-gestützten Finanzentscheidungen. Jede Buchung, jeder Score, jede Freigabe – nachvollziehbar und abrufbar.
🔄
Forecast-Governance
Datenquellen, Modell-Logik und Plausibilität der KI-Forecasts werden laufend überwacht und für den Vorstand dokumentiert.
🏦
Prüfer-Schnittstelle
Wirtschaftsprüfer und Aufsichtsbehörden erhalten strukturierte Nachweise – sofort, nicht nach Wochen der Rekonstruktion.
DORA-Compliance
ICT-Risikorahmen für SAP als Drittanbieter – kontinuierlich dokumentiert, an regulatorische Updates angepasst.
Kein Projekt. Kein Go-Live. Dauerhafter Betrieb.
⑤ Wie der Einstieg aussieht – Governance Check
Governance Check: SAP Finance-KI
Wir zeigen, wo SAP-KI-Entscheidungen entstehen, welche prüfungsrechtlich und regulatorisch relevant sind – und wie Nachweisfähigkeit aufgebaut wird.
01
KI-Inventar
Alle automatisierten SAP-Entscheidungen identifizieren. Klassifikation nach Prüfungsrelevanz, DORA-Pflicht und EU AI Act Scope.
02
Audit-Readiness
Gap-Analyse: Was kann dem Prüfer heute erklärt werden? Wo fehlt Dokumentation, Logik, Nachweis? Kritische Lücken sofort sichtbar.
03
Betriebsplan
Aufbau der laufenden Governance-Funktion für SAP Finance-KI – DORA, SOX und HGB konform. Vorstand-tauglich dokumentiert.
Microsoft 365 Copilot · Wissensentscheidungsraum · DSGVO · NIS2 · Tier 1

Microsoft
Copilot

Copilot greift auf unternehmensweites Wissen zu – ohne klassische Systemgrenzen.
Das ist kein Chatbot. Das ist unkontrollierter Zugriff auf Ihr Unternehmenswissen im Maßstab.

▸ Board Moment

Wissen Sie, auf welche Daten Copilot aktuell zugreift – und was er daraus generiert, in wessen Namen?

Das strukturelle Risiko – anders als Workday oder SAP
📂
Unkontrollierter DatenzugriffSharePoint, Teams, Mails, Dateien – alles was der User sehen darf
Data Risk
✍️
Generierung ohne KontrolleMails, Reports, Präsentationen – automatisch, ohne Prüfung
Output Risk
👻
Shadow AI parallel71 % nutzen KI ohne IT-Wissen (Microsoft Work Trend Index 2024)
Kritisch
🔮
Hallucination in Business-KontextFalsche Zahlen in Verträgen, Kundenmails, Finanzreports
Haftungsrisiko
① Warum kritisch – nicht optional
Copilot ist anders als Workday. Das Risiko liegt nicht in Entscheidungen über Menschen – sondern im unkontrollierten Zugriff auf Ihr gesamtes Unternehmenswissen.
DSGVO · Datenzugriff
Personenbezogene Daten ohne Kontrolle
Copilot greift auf alle Daten zu, auf die der Nutzer Zugriff hat – inklusive personenbezogener Daten Dritter: HR-Akten, Kundendaten, M&A-Unterlagen. DSGVO-Zweckbindung und Zugriffskontrollen sind strukturell sicherzustellen.
Kritisch
NIS2 · Cybersecurity
Prompt Injection als Angriffsvektor
Copilot kann durch manipulierte Dokumente oder E-Mails für Prompt Injection missbraucht werden – ein Angreifer bringt KI dazu, sensible Daten preiszugeben oder fehlerhafte Aktionen auszuführen. NIS2 verlangt Schutzmaßnahmen auch für KI-Systeme.
Sicherheitsrisiko
Interne Policies
Shadow AI & Kontrollverlust
71 % der Mitarbeiter nutzen KI-Tools ohne IT-Wissen (Microsoft Work Trend Index 2024). Copilot ist offiziell ausgerollt – aber die Nutzung findet ohne Governance statt. Das ist kein Awareness-Problem. Das ist ein Struktur-Problem.
Mittel–Hoch
DORA · Finance
Operational Resilience für Finance-Sektor
Im Finanzsektor: Copilot als ICT-Werkzeug unterliegt DORA-Anforderungen. Operational Resilience, ICT-Risikodokumentation und Third-Party-Risk-Management auch für Microsoft als Anbieter.
Sektorspezifisch
② Wo konkret Risiko entsteht
Das Copilot-Risiko ist diffus. Es entsteht überall – in jedem Team, bei jedem Nutzer, mit jedem Prompt. Deshalb ist es gefährlicher als HR- oder Finance-KI.
Risiko 01
Over-sharing: HR, M&A, Vertrauliches
Copilot gibt Nutzern Zugang zu Daten, die technisch freigegeben aber faktisch nicht für sie bestimmt sind: Personalakten, M&A-Unterlagen, Vorstandsdokumente. Alles indexiert. Alles erreichbar.
49%teilen versehentlich sensible Daten über KI-Tools (IBM Security 2024)
Risiko 02
Hallucination in Geschäftsdokumenten
Falsche Zahlen in Finanzreports, erfundene Klauseln in Verträgen, fehlerhafte Kundenkommunikation. Copilot generiert überzeugend formuliert – und faktisch falsch. Ohne Governance: kein Vier-Augen-Prinzip.
38%KI-generierte Business-Dokumente enthalten faktische Fehler (Stanford HAI 2024)
Risiko 03
Kein Audit-Trail – nirgendwo
Wer hat welchen Prompt gesendet? Welche Daten wurden genutzt? Welches Dokument erzeugt? Ohne Governance: keine Antworten. Im Streit-, Haftungs- oder Prüfungsfall: fataler Nachteil.
82%ohne strukturiertes Copilot Activity Monitoring (Gartner 2024)
③ Warum bestehende Ansätze scheitern
Copilot wird ausgerollt. Eine Nutzungsrichtlinie ins Intranet gestellt. Und dann passiert – nichts. Governance nicht.
Microsoft stellt das Werkzeug. Die Kontrolle über seinen Einsatz liegt bei der Organisation. Richtlinien ohne Struktur sind keine Governance.
Was meistens passiert
  • Copilot-Lizenz ausgerollt → Schulung → fertig
  • Nutzungsrichtlinie ins Intranet gestellt
  • Keine Zugriffskontrollen auf Datenbasis vor Aktivierung
  • Shadow AI wächst parallel unkontrolliert weiter
  • Audit-Anfragen können nicht beantwortet werden
Was Betrieb bedeutet
  • Datenbasis bereinigt bevor Copilot indexiert
  • Prompt Governance: was darf generiert werden
  • Nutzungstransparenz: wer nutzt was, wann, wie
  • Anomalie-Erkennung bei ungewöhnlichem Datenzugriff
  • Audit-Trail für jede relevante Copilot-Aktion
④ Was wir anders machen – Betrieb
Wir betreiben Governance für Microsoft Copilot – Zugriffskontrolle, Prompt Governance, Nutzungstransparenz als Dauerfunktion.
🔐
Zugriffssteuerung
Datenbasis bereinigen bevor Copilot indexiert. Wir steuern, was KI sehen darf – strukturell, nicht durch Hoffnung auf korrekte Nutzung.
💬
Prompt Governance
Richtlinien, was Copilot generieren darf – in Betriebsprozesse eingebettet. Nicht als Policy-PDF. Als operative Steuerung.
👁️
Nutzungstransparenz
Wer nutzt Copilot, welche Daten fließen, welche Outputs entstehen. Laufend sichtbar. Nicht erst im Schadensfall rekonstruiert.
🛡️
Risikoüberwachung
Automatisierte Erkennung von Governance-Verstößen und ungewöhnlichem Datenzugriff. Eskalation, Dokumentation, Korrektur – sofort.
Kein Projekt. Kein Go-Live. Dauerhafter Betrieb.
⑤ Wie der Einstieg aussieht – Governance Check
Governance Check: Microsoft Copilot
Wir prüfen, auf welche Daten Copilot zugreift, welche Risiken konkret bestehen – und was sofort getan werden muss.
01
Datenzugriff
Was indexiert Copilot? Welche sensiblen Daten sind erreichbar? Sofortdiagnose der Datenbasis – vor jeder weiteren Nutzung.
02
Nutzungsanalyse
Wie wird Copilot eingesetzt? Wo existiert Shadow AI? Wer nutzt was ohne Governance? Transparenz über die tatsächliche Nutzungssituation.
03
Betriebsplan
Zugriffskontrollen, Prompt Governance, Monitoring-Architektur – konkret und umsetzbar. Nicht generisch.
Salesforce Einstein AI · Commercial-Entscheidungsraum · Tier 2 · Wachstum

Salesforce
Einstein AI

KI entscheidet, welcher Kunde relevant ist.
Welcher Deal gewonnen wird. Welcher Preis gilt.
Oft ohne jede Kontrolle – und mit kartellrechtlichem Risiko.

▸ Board Moment

Weiß Ihr CRO, nach welcher Logik Einstein AI Leads bewertet – und ob diese Logik diskriminierungsfrei und kartellrechtskonform ist?

Entscheidungsrelevante KI-Funktionen – Commercial Risk
🎯
Lead ScoringKI bewertet, welche Leads verfolgt werden – entscheidungsrelevant
Bias Risk
📈
Opportunity ForecastingML-Umsatzprognosen – direkte Vorstandsrelevanz
Vorstandsrelevant
💰
Pricing IntelligenceDynamische KI-Preisempfehlungen – kartellrechtlich relevant
Compliance Risk
👤
Customer ScoringAlgorithmische Kundensegmentierung – Diskriminierungsrisiko
DSGVO Profiling
① Warum kritisch – nicht optional
KI-gestützte Kundenbewertung kann diskriminieren. Pricing-KI kann kartellrechtlich relevant werden. Beide Risiken entstehen unsichtbar.
DSGVO · Profiling
Automatisiertes Kundenprofiling
Customer Scoring und Lead-Bewertung sind automatisiertes Profiling nach DSGVO. Transparenzpflichten und Widerspruchsrechte gelten auch im B2B-Kontext bei natürlichen Personen.
Mittel–Hoch
Antidiskriminierung
Bias in Customer Scoring
KI-Modelle reproduzieren systematisch Verzerrungen aus historischen Daten. Ohne Bias-Kontrolle: rechtliches und Reputationsrisiko. 41 % der Scoring-Modelle zeigen statistisch signifikanten Bias.
Kritisch
Kartellrecht
Algorithmische Preiskoordination
Wenn Pricing-KI Marktdaten nutzt und Preisempfehlungen erzeugt, kann das als koordiniertes Preisverhalten gewertet werden – auch ohne explizite Absprache zwischen Unternehmen.
Hohe Priorität
Forecast-Haftung
KI-Prognosen im Vorstandsbericht
KI-Forecasts, die in Vorstandsberichte, Investorenkommunikation oder M&A-Prozesse einfließen, schaffen Haftungsfragen bei Abweichungen – wenn die Modellbasis nicht dokumentiert ist.
Vorstandsrelevant
② Wo konkret Risiko entsteht
Commercial-KI ist der blinde Fleck – weil Vertrieb keine Governance-Kultur hat und niemand die Modelllogik hinterfragt.
Risiko 01
Bias im Lead Scoring
Einstein AI lernt aus historischen Vertriebsdaten. Wenn diese Verzerrungen enthalten, reproduziert die KI sie – systematisch, skaliert, ohne Sichtbarkeit. 41 % der Scoring-Modelle zeigen Bias.
41%KI-Scoring-Modelle mit statistisch signifikantem Bias (MIT AI Lab 2024)
Risiko 02
Forecast ohne Modellbasis
67 % der CROs nutzen KI-Forecasts, ohne deren Modellbasis zu kennen. Vorstandsentscheidungen auf Basis von KI-Prognosen, die niemand erklären kann: im Schadensfall nicht verteidigbar.
67%CROs nutzen KI-Forecasts ohne Modellkenntnis (Forrester 2024)
Risiko 03
Pricing ohne Compliance
Nur 29 % der Unternehmen prüfen Pricing-KI auf kartellrechtliche Konformität. Algorithmische Preisempfehlungen laufen ohne Compliance-Check – und skalieren kartellrechtliches Risiko mit jedem Deal.
29%prüfen Pricing-KI auf Kartellrechtskonformität (Deloitte 2024)
③ Warum bestehende Ansätze scheitern
Vertrieb will Geschwindigkeit. Governance bremst. Deshalb gibt es sie nicht. Das ist das Problem.
Weil das Risiko mit jedem Deal skaliert, der auf Basis unkontrollierter KI-Scores entsteht.
Was meistens passiert
  • Einstein AI aktiviert → Vertrieb nutzt es → fertig
  • Kein Bias-Check des Scoring-Modells
  • Forecast-KI liefert Zahlen → Herkunft irrelevant
  • Pricing-Empfehlungen unkontrolliert übernommen
Was Betrieb bedeutet
  • Regelmäßiger Bias-Audit des Scoring-Modells
  • Forecast-Governance: Modell, Daten, Plausibilität dokumentiert
  • Pricing-KI durch Compliance freigegeben
  • Vertrieb versteht KI-Limits – strukturell verankert
④ Was wir anders machen – Betrieb
Wir steuern Governance für Salesforce Einstein – damit Commercial-KI vertretbar skaliert, ohne Vertrieb zu bremsen.
⚖️
Bias-Kontrolle
Laufende Prüfung der Scoring-Modelle auf systematische Verzerrungen. Kontinuierlich – nicht einmalig nach Implementierung.
📊
Forecast-Governance
Modelllogik, Datenquellen und Plausibilität der KI-Forecasts dokumentiert und für Vorstand und Investor vertretbar gemacht.
💵
Pricing-Compliance
Kartellrechtliche und DSGVO-Prüfung der Pricing-KI – bevor sie im Markt wirkt, nicht danach.
🔍
CRM-Audit-Trail
Wer hat was auf Basis welcher KI-Empfehlung entschieden? Lückenloses Protokoll für Compliance, Streit- und Haftungsfälle.
Kein Projekt. Kein Go-Live. Dauerhafter Betrieb.
⑤ Wie der Einstieg aussieht – Governance Check
Governance Check: Salesforce Einstein AI
Wir zeigen, wo Commercial-KI unkontrolliert entscheidet – und wie Governance den Vertrieb schützt statt bremst.
01
KI-Inventar
Alle Einstein AI-Funktionen erfassen. Bias-Potenzial, kartellrechtliche und DSGVO-Relevanz je Funktion bewerten.
02
Bias & Compliance
Erste Bias-Analyse der Scoring-Modelle. Kartellrechtlicher Check der Pricing-KI. Klare Priorisierung der Risiken.
03
Betriebsplan
Laufende Governance-Funktion für Salesforce Einstein – in Commercial-Prozesse integriert, ohne Vertriebsbremse.
Agentic AI · Autonome Entscheidungen · Thought Leadership · Tier 2

Agentic
AI

Agenten handeln – ohne dass Organisationen es kontrollieren können.
Das ist kein Zukunftsszenario.
Das ist der Stand von 2025.

▸ Board Moment

Können Sie beschreiben, was Ihre KI-Agenten heute, in diesem Moment, tun – und in wessen Namen sie handeln?

Agentic AI im Unternehmenseinsatz – Realität 2025
🔗
Multi-Step WorkflowsAgenten planen, delegieren, führen aus – eigenständig
Unkontrolliert
🛠️
Tool Use & API-CallsAgenten rufen Systeme, Datenbanken, externe APIs auf
Expositionsrisiko
🧠
Autonome EntscheidungenKeine menschliche Prüfung im Loop – je nach Konfiguration
Hochrisiko
📧
KommunikationsagentenKI-Agenten versenden Mails, erstellen Verträge, buchen Termine
Haftungsrisiko
① Warum kritisch – nicht optional
Agentic AI schafft eine neue Governance-Kategorie: autonome Handlung ohne klaren menschlichen Eigentümer. Das ist regulatorisch Neuland – mit klarer Haftungslage.
EU AI Act · Agentic
Autonome Systeme im Scope
Die EU-Kommission hat klargestellt: agentic AI-Systeme fallen unter den EU AI Act. Betreiber tragen die volle Compliance-Verantwortung – für jede Agentenhandlung, nicht nur für die Systemkonfiguration.
Kritisch · 2026
Haftungsrecht
Wer haftet für Agenten-Handlungen?
Wenn ein Agent einen Vertrag initiiert, eine Mail sendet, Daten verändert oder eine Transaktion auslöst: Die KI haftet nicht. Der Anbieter haftet nicht. Die Organisation haftet – vollständig.
Kritisch
DSGVO
Datenzugriff ohne Zweckbindung
Agenten greifen autonom auf Daten zu, ohne dass jede Aktion einer expliziten DSGVO-Zweckbindung entspricht. Ohne strukturierte Governance: systematische DSGVO-Verletzung im Dauerbetrieb.
Hohe Priorität
Governance-Leerstelle
Keine Accountability-Struktur
Ohne klare Eigentümerschaft, Berechtigungsgrenzen und vollständige Protokollierung handeln Agenten in einem rechtlichen und organisatorischen Vakuum. Das ist der gefährlichste Zustand.
Kritisch
② Wo konkret Risiko entsteht
Agentisches Risiko ist nicht theoretisch. Es entsteht bei jedem Workflow, den niemand konfiguriert hat zu stoppen.
Risiko 01
Unklare Handlungsgrenzen
Was darf der Agent tun? Was nicht? Wann muss er stoppen und eskalieren? Ohne diese Grenzen handelt er nach interner KI-Logik – nicht nach Unternehmensinteresse oder Compliance.
89%Agentic-AI-Deployments ohne dokumentierte Handlungsgrenzen (Gartner 2024)
Risiko 02
Kein vollständiger Audit-Trail
Was hat der Agent getan? Welche Daten genutzt? Welche Systeme aufgerufen? Welche Outputs erzeugt? Ohne lückenloses Protokoll: keine Antworten im Prüfungsfall. Kein Nachweis. Keine Verteidigung.
91%Agentic-AI-Systeme ohne vollständigen Aktions-Audit-Trail (MIT 2024)
Risiko 03
Prompt Injection
Agenten können durch manipulierte Daten oder Dokumente dazu gebracht werden, unerwünschte Aktionen auszuführen. Dies ist das kritischste Sicherheitsrisiko für agentic AI – und weitgehend unbekannt in Governance-Diskussionen.
#1Kritischstes Sicherheitsrisiko für agentic AI (OWASP Top 10 LLM 2024)
③ Warum bestehende Ansätze scheitern
Agentic AI wird als Tech-Experiment behandelt. Governance wird für „später“ geplant. Das ist strukturell falsch.
Der Moment der ersten autonomen Handlung ist der Moment, ab dem Governance hätte vorhanden sein müssen.
Was meistens passiert
  • Pilot startet → Agent handelt → keine Grenzen definiert
  • Kein Berechtigungsmodell für Systemzugriffe
  • Kein Human-in-the-Loop für kritische Schritte
  • Kein Audit-Trail der Agentenaktionen
  • Governance-Diskussion für „Phase 2″ geplant
Was Betrieb bedeutet
  • Handlungsgrenzen definiert vor erstem Produktiveinsatz
  • Berechtigungsmodell: was darf der Agent berühren
  • Human-in-the-Loop für kritische Entscheidungsschritte
  • Vollständiger Aktions-Audit-Trail von Tag 1
  • Laufende Überwachung aller Agentenhandlungen
④ Was wir anders machen – Betrieb
Wir betreiben Governance für agentic AI – bevor, während und nach dem ersten Einsatz. Dauerhaft.
🚧
Handlungsgrenzen
Wir definieren, was Agenten dürfen und was nicht – und bauen technische und organisatorische Stopplinien ein. Keine Hoffnung. Struktur.
👁️
Aktions-Monitoring
Laufende Überwachung aller Agentenhandlungen. Jeder API-Call, jede Datenbewegung, jede Output-Generierung – protokolliert und auswertbar.
🔐
Berechtigungsmodell
Minimaler Datenzugriff, begrenzte Systemrechte, explizite Freigaben für jede Aktion-Klasse. Nicht Standard-Konfiguration übernehmen.
🛡️
Prompt Injection Defense
Technische und prozessuale Schutzmaßnahmen gegen Manipulation von Agenten durch externe Inputs – Dokumente, Mails, Daten.
Kein Projekt. Kein Go-Live. Dauerhafter Betrieb.
⑤ Wie der Einstieg aussieht – Governance Check
Governance Check: Agentic AI
Wir prüfen, welche Agenten-Systeme aktiv sind, welche Handlungen unkontrolliert entstehen – und bauen Governance vor dem nächsten Einsatz auf.
01
Agenten-Inventar
Alle aktiven agentic AI-Systeme erfassen. Handlungsgrenzen, Systemzugriffe und Protokollierung pro Agent bewerten.
02
Risikoexposition
Wo handeln Agenten heute ohne Governance? Kritische Lücken identifizieren. Sofortige Maßnahmen definieren.
03
Betriebsplan
Aufbau der laufenden Governance-Funktion für agentic AI – skalierbar, auditierbar, regulatorisch vertretbar.

Das Prinzip hinter allen fünf Entscheidungsräumen

Das Problem ist nicht die Technologie.
Das Problem ist, dass sie ohne Governance betrieben wird.
Systemvergleich · Entscheidungsräume unter regulatorischem Druck

Fünf Entscheidungsräume.
Ein Governance-Problem.

EntscheidungsraumSystemRisikotypPrimäre RegulatorikBudget-HebelDringlichkeit
HR-EntscheidungenWorkday HCMEntscheidungen über MenschenEU AI Act Annex III · DSGVO Art. 22 · §87 BetrVGCHRO · BR · LegalKritisch · Aug. 26
Finanzielle EntscheidungenSAP S/4HANAAutomatisierte Finance-KIDORA · SOX · HGB · EU AI ActCFO · Audit · VorstandGrößter Budget-Hebel
WissensentscheidungenMicrosoft CopilotUnkontrollierter DatenzugriffDSGVO · NIS2 · DORA (Finance)CIO · CISO · DPOÜberall · Sofort
Commercial-EntscheidungenSalesforce EinsteinBias · Pricing · KartellrechtDSGVO Profiling · KartellrechtCCO · CRO · LegalPhase 2
Autonome EntscheidungenAgentic AIHandlung ohne EigentümerEU AI Act · Haftungsrecht · DSGVOCTO · Legal · BoardThought Leadership
Governance Check · Alle Entscheidungsräume

Bevor Ihre Systeme
für Sie entscheiden –
stellen Sie sicher,
dass Governance
mitläuft.

Ein Governance Check klärt für jeden Ihrer kritischen Entscheidungsräume: Wo besteht regulatorische Exposition? Was muss vor August 2026 getan werden? Wie sieht dauerhafter Governance-Betrieb aus?

Welche KI-Funktionen in Ihren Systemen aktiv und regulatorisch relevant sind
Wo konkrete Risiken nach EU AI Act, DSGVO, DORA und sektorspezifischen Regelungen bestehen
Was vor August 2026 zwingend erledigt sein muss – priorisiert nach Budget-Druck und Haftungsrisiko
Wie Governance operativ als laufende Steuerungsfunktion aufgebaut wird – kein Projekt, kein Go-Live
Gespräch anfragen
45 Minuten Erstgespräch. Ergebnis: Sie wissen, wo Sie stehen und was als nächstes kommt. Kein Projektversprechen. Kein Angebot vor dem Gespräch.