Positionspapier zum AI Act in Europa

Lesezeit: 3 Minuten

Der AI Act der Europäischen Union ist ein bahnbrechender Vorschlag, der darauf abzielt, Künstliche Intelligenz (KI) umfassend zu regulieren und sicherzustellen, dass diese Technologien ethisch vertretbar, sicher und transparent entwickelt und genutzt werden. Angesichts des exponentiellen Wachstums von KI-Systemen und ihrer weitreichenden Auswirkungen auf Wirtschaft, Gesellschaft und Innovation nimmt die EU eine Vorreiterrolle ein, um Risiken zu minimieren und gleichzeitig die Wettbewerbsfähigkeit zu sichern.

Das Ziel dieses Positionspapiers ist es, eine tiefgreifende Analyse des AI Acts zu geben, die aktuellen Entwicklungen und Implikationen zu beleuchten und Empfehlungen zu formulieren, wie die EU eine Balance zwischen Innovation und Regulierungen gewährleisten kann.

1. Der Rahmen des AI Act

Der AI Act baut auf einem risikobasierten Ansatz auf, der vier Kategorien umfasst: inakzeptable Risiken, hohe Risiken, begrenzte Risiken und minimale Risiken. Jede Kategorie hat spezifische regulatorische Anforderungen und Pflichten, um eine effektive Kontrolle und Überwachung sicherzustellen.

1.1 Inakzeptable Risiken

Inakzeptable Risiken betreffen Anwendungen von KI, die gegen die Grundrechte verstoßen oder die öffentliche Sicherheit gefährden. Diese Anwendungen sind vollständig verboten. Beispiele hierfür sind KI-gestützte Systeme zur sozialen Bewertung oder manipulative Verhaltensbeeinflussung.

1.2 Hohe Risiken

Hohe Risiken umfassen KI-Systeme, die in kritischen Bereichen wie Gesundheit, Verkehr, Beschäftigung oder Strafverfolgung eingesetzt werden. Solche Systeme müssen strenge Anforderungen in Bezug auf Datensicherheit, Genauigkeit, Transparenz und Nachvollziehbarkeit erfüllen. Anbieter und Nutzer dieser Systeme sind verpflichtet, regelmäßige Audits durchzuführen und Konformitätsbewertungen vorzulegen.

1.3 Begrenzte und minimale Risiken

Systeme mit begrenzten Risiken müssen keine strengen Prüfungen durchlaufen, sondern lediglich Transparenzanforderungen erfüllen. Dazu zählen beispielsweise Chatbots oder KI-basierte Empfehlungsdienste. Systeme mit minimalen Risiken, wie KI-gestützte Spiele, unterliegen keiner besonderen Regulierung.

2. Die Rolle der Innovation und Wettbewerbsfähigkeit

Ein wesentlicher Aspekt des AI Acts ist die Förderung von Innovation. Es gibt Bedenken, dass strenge Regulierungen die Innovationskraft der europäischen Unternehmen beeinträchtigen könnten. Das AI Act-Dokument sieht jedoch vor, dass die Regulierung auf eine Weise gestaltet wird, die einen Raum für Experimentiermöglichkeiten und Forschungsinitiativen zulässt, insbesondere durch sogenannte Regulatory Sandboxes. Diese bieten einen sicheren Rahmen für Unternehmen, um neue KI-Technologien zu testen, bevor sie auf den Markt gebracht werden.

3. Daten- und Datenschutzfragen im Kontext des AI Acts

Der AI Act steht in engem Zusammenhang mit bestehenden Datenschutzregelungen wie der DSGVO. Es ist von entscheidender Bedeutung, dass KI-Systeme den Datenschutzanforderungen gerecht werden, um Missbrauch und Verletzungen von Datenschutzrechten zu vermeiden. Der AI Act fordert explizit eine sorgfältige Datenverarbeitung und -überwachung, insbesondere für Systeme mit hohem Risiko.

4. Herausforderungen bei der Umsetzung

Die Umsetzung des AI Acts wird von verschiedenen Herausforderungen begleitet:

  • Technologische Komplexität: KI-Systeme sind oft intransparent und schwer nachvollziehbar, was ihre Bewertung erschwert.
  • Fragmentierung innerhalb der EU: Unterschiedliche Mitgliedstaaten könnten den AI Act unterschiedlich interpretieren und umsetzen, was zu regulatorischen Unterschieden und Wettbewerbsvorteilen führen könnte.
  • Fehlende Expertise: Die Umsetzung erfordert hochspezialisierte Fachkenntnisse, die nicht in allen Mitgliedstaaten gleichermaßen verfügbar sind.

5. Empfehlungen und Schlussfolgerungen

Um den Erfolg des AI Acts zu gewährleisten, schlägt dieses Positionspapier folgende Maßnahmen vor:

  1. Schaffung klarer Leitlinien und Schulungsprogramme: Um sicherzustellen, dass alle Akteure den AI Act einheitlich verstehen und umsetzen können, sind klare Leitlinien und Schulungsprogramme für Unternehmen und Behörden erforderlich.
  2. Förderung der internationalen Zusammenarbeit: Angesichts der globalen Natur der KI ist eine internationale Koordinierung unerlässlich. Die EU sollte mit anderen Regionen zusammenarbeiten, um globale Standards für die KI-Regulierung zu entwickeln und so den fragmentierten Ansatz zu vermeiden.
  3. Investitionen in KI-Forschung und -Entwicklung: Die EU muss ihre Investitionen in KI-Forschung und -Entwicklung deutlich erhöhen, um mit globalen Konkurrenten wie den USA und China Schritt zu halten.
  4. Regulatory Sandboxes stärken: Der Ausbau von Regulatory Sandboxes sollte priorisiert werden, um Unternehmen einen sicheren Raum für die Entwicklung und Erprobung neuer Technologien zu bieten.

Fazit

Der AI Act stellt einen wichtigen Schritt zur Regulierung von KI in Europa dar und könnte das Fundament für eine sicherere, ethischere und innovativere KI-Zukunft bilden. Es wird jedoch entscheidend sein, dass die EU die richtige Balance zwischen strenger Regulierung und Förderung von Innovation findet, um ihre globale Wettbewerbsfähigkeit zu sichern und gleichzeitig die Grundrechte zu schützen.


Diese Analyse basiert auf den im Future of European Competitiveness Dokument genannten Empfehlungen​(The future of European …).