EU AI ACT – Bedeutung für Versicherungsunternehmen

Lesezeit: 6 Minuten

Der vom EU-Parlament beschlossene AI Act ist ein bahnbrechender Schritt in Richtung einer umfassenden Regulierung von Künstlicher Intelligenz (KI) und hat spezifische Auswirkungen auf Versicherungsunternehmen.

Dieses Gesetz ist weltweit die erste seiner Art und zielt darauf ab, das Potenzial der KI zu maximieren, während gleichzeitig die Sicherheit, die Grundrechte und die demokratische Kontrolle gewährleistet werden.


Der risikobasierte Ansatz im EU AI Act ist ein Kernstück der Regulierung, der darauf abzielt, unterschiedliche Anforderungen für KI-Systeme zu etablieren, basierend auf dem Niveau des Risikos, das sie für die Gesellschaft und Individuen darstellen. Dieser Ansatz ermöglicht es, die Vielfalt der Anwendungen und die dynamische Natur der KI-Technologie zu berücksichtigen und gleichzeitig sicherzustellen, dass die Regulierung auf die Bereiche fokussiert ist, in denen das Potenzial für Schaden am größten ist.

Definition von Risikokategorien: Der AI Act klassifiziert KI-Systeme in verschiedene Risikokategorien, von minimalen bis hin zu hohen Risiken. Je höher das Risiko, das ein KI-System darstellt, desto strengere Anforderungen werden an seine Entwicklung, seinen Einsatz und seine Überwachung gestellt. Diese Kategorisierung erlaubt eine gezielte Regulierung, die sich auf die Bereiche konzentriert, in denen die Notwendigkeit für Kontrolle und Transparenz am dringlichsten ist.

Anforderungen für Hochrisiko-KI-Systeme: Für KI-Systeme, die als Hochrisiko eingestuft werden, schreibt der AI Act umfassende Anforderungen vor. Dazu gehören:

  • Detaillierte Dokumentation: Um Transparenz zu gewährleisten und die Nachvollziehbarkeit von Entscheidungen zu ermöglichen, müssen Entwickler und Anwender von Hochrisiko-KI-Systemen umfangreiche Dokumentationen bereitstellen. Dies kann Details zur Datenverarbeitung, zum Algorithmus und zu den Entscheidungswegen umfassen.
  • Robuste Daten-Governance: Hochrisiko-KI-Systeme müssen auf zuverlässigen, relevanten und nicht diskriminierenden Daten trainiert werden. Unternehmen müssen Verfahren implementieren, um die Qualität und Integrität der verwendeten Daten sicherzustellen.
  • Transparenz: Nutzer müssen über den Einsatz von KI-Systemen informiert werden, insbesondere wenn diese Entscheidungen treffen oder beeinflussen, die ihre Rechte oder ihren Status betreffen könnten.
  • Menschliche Aufsicht: Hochrisiko-KI-Systeme sollen so gestaltet sein, dass menschliche Aufsicht möglich ist. Dies bedeutet, dass Entscheidungen des Systems nachvollziehbar sein müssen und die Möglichkeit einer menschlichen Intervention gegeben sein sollte.

Auswirkungen auf Versicherungsunternehmen: Versicherungsunternehmen, die KI-Systeme nutzen, müssen diese Systeme bewerten und feststellen, ob sie unter die Kategorie der Hochrisiko-KI-Systeme fallen. Ist dies der Fall, müssen sie die spezifischen Anforderungen erfüllen, die der AI Act für solche Systeme vorsieht. Dies könnte bedeuten, dass Versicherer ihre aktuellen KI-Systeme überarbeiten, zusätzliche Sicherheitsmaßnahmen implementieren und Prozesse zur kontinuierlichen Überwachung und Bewertung der KI-Systeme einrichten müssen.

Flexibilität und Dynamik: Der risikobasierte Ansatz ermöglicht es, dass die Regulierung mit der technologischen Entwicklung Schritt halten kann. Da neue KI-Anwendungen und -Technologien entstehen, können diese bewertet und in das bestehende Rahmenwerk integriert werden, ohne dass eine vollständige Überarbeitung der Gesetzgebung erforderlich ist.

Durch diesen Ansatz zielt der EU AI Act darauf ab, ein Gleichgewicht zwischen der Förderung von Innovation und technologischem Fortschritt einerseits und dem Schutz der öffentlichen Sicherheit, der Grundrechte und der ethischen Standards andererseits zu finden.


Hochrisiko-KI-Systeme stehen im Mittelpunkt des EU AI Acts, da sie in Bereichen eingesetzt werden, die signifikante Auswirkungen auf die Sicherheit, Rechte und Freiheiten von Individuen haben können. Der Act definiert spezifische Anforderungen und Rahmenbedingungen, um sicherzustellen, dass diese Systeme auf eine Weise entwickelt und eingesetzt werden, die mit den Werten und Normen der EU übereinstimmt.

Definition von Hochrisiko-KI-Systemen: Ein KI-System wird als hochriskant eingestuft, wenn es in kritischen Sektoren wie Gesundheitswesen, Bildung, Justiz, Polizeiwesen, Verkehr und Arbeitsmarkt eingesetzt wird und erhebliche Auswirkungen auf die Rechte und Sicherheit von Personen haben kann. Dazu gehören KI-Anwendungen, die in der Lage sind, den Zugang zu Bildung, Beschäftigung, wesentlichen privaten und öffentlichen Dienstleistungen zu steuern oder Entscheidungen zu treffen, die rechtliche oder ähnlich signifikante Effekte für Individuen haben.

Anforderungen für Hochrisiko-KI-Systeme:

  1. Transparenz und Informationspflicht: Betreiber müssen sicherstellen, dass ihre Systeme transparent sind. Nutzer und Betroffene sollten verstehen können, wie und warum Entscheidungen getroffen werden, insbesondere wenn diese Entscheidungen signifikante Auswirkungen auf sie haben.
  2. Daten-Governance und -management: Hochrisiko-KI-Systeme müssen auf genauen, zuverlässigen und qualitativ hochwertigen Daten trainiert werden. Es muss sichergestellt werden, dass die Datensätze frei von Vorurteilen sind, um Diskriminierung zu vermeiden. Die Datenerhebung, -verarbeitung und -nutzung müssen den Datenschutzvorschriften entsprechen.
  3. Robustheit und Sicherheit: Diese Systeme müssen robust und sicher sein, um manipulative Eingriffe und Fehlfunktionen zu verhindern. Sie sollten so konzipiert sein, dass sie unter verschiedenen Bedingungen zuverlässig funktionieren und entsprechende Sicherheitsmaßnahmen umfassen.
  4. Menschliche Aufsicht: Es muss eine angemessene menschliche Aufsicht über Hochrisiko-KI-Systeme geben, um sicherzustellen, dass die menschliche Kontrolle jederzeit gewährleistet ist. Entscheidungen der KI sollten von Menschen überprüfbar, anfechtbar und gegebenenfalls korrigierbar sein.
  5. Prüfbarkeit: Die Algorithmen, Daten und Entscheidungsprozesse von Hochrisiko-KI-Systemen müssen dokumentiert und prüfbar sein, um Compliance zu gewährleisten und bei Bedarf Überprüfungen und Untersuchungen zu ermöglichen.
  6. Genauigkeitsanforderungen: Hochrisiko-KI-Systeme müssen eine hohe Genauigkeit aufweisen und in der Lage sein, ihre Aufgaben unter realen Bedingungen effektiv und ohne ungerechtfertigte Fehler zu erfüllen.
  7. Risikomanagement: Entwickler und Anwender von Hochrisiko-KI-Systemen müssen ein Risikomanagementverfahren implementieren, das die Identifizierung und Abmilderung potenzieller Risiken und negativer Auswirkungen umfasst.

Auswirkungen auf Versicherungsunternehmen: Versicherungsunternehmen, die Hochrisiko-KI-Systeme einsetzen, müssen sicherstellen, dass ihre Systeme diesen Anforderungen entsprechen. Sie müssen möglicherweise ihre Prozesse überarbeiten, um die Einhaltung dieser Vorgaben zu gewährleisten. Dies könnte bedeuten, dass interne Richtlinien aktualisiert, Mitarbeiter geschult und externe Prüfungen oder Audits durchgeführt werden müssen, um Compliance zu demonstrieren.

Durch die Einhaltung dieser strengen Vorschriften können Versicherungsunternehmen das Vertrauen der Öffentlichkeit in ihre KI-basierten Systeme stärken und gleichzeitig sicherstellen, dass ihre Technologien ethisch und verantwortungsbewusst eingesetzt werden.


Transparenz und Datenqualität sind wesentliche Säulen des EU AI Act, die darauf abzielen, das Vertrauen in KI-Systeme zu stärken und sicherzustellen, dass die Entscheidungen, die von diesen Systemen getroffen werden, nachvollziehbar, gerecht und verlässlich sind.

Transparenz:

  1. Offenlegung der KI-Nutzung: Nutzer und Betroffene müssen klar darüber informiert werden, wenn sie mit einem KI-System interagieren, insbesondere wenn dieses System Entscheidungen trifft oder Empfehlungen ausspricht, die signifikante Auswirkungen auf Individuen oder Gruppen haben können.
  2. Verständlichkeit: Informationen über die Arbeitsweise eines KI-Systems und die Logik hinter seinen Entscheidungen sollten in einer klaren und verständlichen Weise bereitgestellt werden. Dies hilft Nutzern und Betroffenen, die Funktionen und Grenzen der KI zu verstehen und fördert das Vertrauen in die Technologie.
  3. Nachvollziehbarkeit von Entscheidungen: KI-Systeme sollten so gestaltet sein, dass ihre Entscheidungen im Nachhinein überprüft und nachvollzogen werden können. Dies ist besonders wichtig in Fällen, in denen eine Entscheidung angefochten wird oder wenn die Notwendigkeit besteht, den Entscheidungsprozess zu analysieren.

Datenqualität:

  1. Robuste Datensätze: Die Qualität der Daten, die für das Training, die Entwicklung und den Betrieb von KI-Systemen verwendet werden, ist entscheidend für ihre Leistung und Fairness. Daten müssen genau, vollständig, repräsentativ und frei von Vorurteilen sein, um Diskriminierung zu vermeiden und faire Ergebnisse zu gewährleisten.
  2. Datenmanagement: Unternehmen müssen effektive Datenmanagement-Praktiken implementieren, die die Integrität und Zuverlässigkeit der Daten während ihres gesamten Lebenszyklus gewährleisten. Dies umfasst Verfahren zur Datenerfassung, -speicherung, -verarbeitung und -löschung.
  3. Umgang mit Datenverzerrungen: KI-Systeme sollten regelmäßig auf Verzerrungen und Diskriminierungen überprüft werden. Unternehmen müssen Maßnahmen ergreifen, um solche Verzerrungen zu identifizieren und zu korrigieren, um sicherzustellen, dass KI-Systeme gerechte und unvoreingenommene Ergebnisse liefern.
  4. Datenschutz: Die Einhaltung der Datenschutzbestimmungen ist unerlässlich, insbesondere im Hinblick auf die Verarbeitung personenbezogener Daten durch KI-Systeme. Unternehmen müssen sicherstellen, dass sie die Datenschutzgrundverordnung (DSGVO) und andere relevante Datenschutzgesetze einhalten.

Auswirkungen auf Unternehmen:

Unternehmen müssen transparente Praktiken einführen und aufrechterhalten, die es Stakeholdern ermöglichen, Einblick in die Funktion und die Entscheidungsprozesse von KI-Systemen zu erhalten. Sie müssen auch sicherstellen, dass ihre Daten von hoher Qualität sind und ethischen Standards entsprechen, um das Vertrauen in ihre KI-Anwendungen zu stärken und regulatorische Anforderungen zu erfüllen. Dies kann Schulungen für Mitarbeiter, Investitionen in Datenmanagement-Technologien und -Prozesse sowie die Implementierung von Überprüfungs- und Auditierungsverfahren umfassen, um Transparenz und Datenqualität kontinuierlich zu gewährleisten.

Der AI Act betont die Bedeutung der Ethik und der Einhaltung der Menschenrechte. KI-Systeme sollten menschenzentriert sein und die menschliche Autonomie, Privatsphäre und Nichtdiskriminierung respektieren. Versicherungsunternehmen müssen diese Prinzipien bei der Entwicklung und Implementierung ihrer KI-Systeme berücksichtigen.

Für Versicherungsunternehmen bedeutet der EU AI Act eine verstärkte Notwendigkeit, ihre KI-Strategien und -Implementierungen sorgfältig zu überprüfen und sicherzustellen, dass sie den neuen regulatorischen Anforderungen entsprechen. Diese Unternehmen müssen möglicherweise ihre Prozesse anpassen, um Compliance sicherzustellen, und in Systeme und Schulungen investieren, um die Einhaltung der neuen Vorschriften zu gewährleisten.