Kategorie: Datenschutz

Der Begriff Datenschutz bezieht sich auf die Gesamtheit der Gesetze, Vorschriften und Richtlinien, die die Erhebung, Speicherung, Verwendung und Verbreitung personenbezogener Daten regeln. Das Ziel des Datenschutzes ist es, die Privatsphäre und die Sicherheit des Einzelnen zu schützen und ihm die Kontrolle über seine persönlichen Daten zu geben.

In vielen Ländern wird der Datenschutz durch spezielle Gesetze und Verordnungen geregelt, wie z. B. die Allgemeine Datenschutzverordnung (GDPR) in der Europäischen Union und der California Consumer Privacy Act (CCPA) in Kalifornien. In diesen Gesetzen sind in der Regel bestimmte Rechte für Einzelpersonen in Bezug auf ihre personenbezogenen Daten festgelegt, z. B. das Recht auf Zugang, Berichtigung und Löschung ihrer personenbezogenen Daten.

Zum Datenschutz gehört auch die Umsetzung technischer und organisatorischer Maßnahmen, um personenbezogene Daten vor unbefugtem Zugriff, Veränderung, Weitergabe oder Zerstörung zu schützen. Dazu können Maßnahmen wie Verschlüsselung, Firewalls und Zugangskontrollen gehören.

Darüber hinaus sind Organisationen verpflichtet, einen Datenschutzbeauftragten (DSB) zu ernennen, der die Einhaltung der Verordnung sicherstellt und die Organisation und ihre Mitarbeiter bei der Einhaltung der Datenschutzgrundsätze unterstützt, Datenschutz-Folgenabschätzungen durchführt und als Ansprechpartner für betroffene Personen und Aufsichtsbehörden fungiert.

Insgesamt ist der Datenschutz ein komplexes und sich ständig weiterentwickelndes Gebiet, und Organisationen müssen über die neuesten Gesetze und Vorschriften sowie über bewährte Verfahren zum Schutz personenbezogener Daten informiert bleiben.

  • EU Data Act – Transformation für Unternehmen

    EU Data Act – Transformation für Unternehmen

    Der EU Data Act ist ein bedeutender Rechtsakt, der darauf abzielt, die Datenwirtschaft in der Europäischen Union zu harmonisieren und zu regulieren.

    EU data Act , diese Verordnung hat weitreichende Implikationen für Unternehmen aller Größen, die in der EU tätig sind. Die Analyse der zukünftigen Investitionen, die Unternehmen aufgrund dieser neuen Vorschriften tätigen müssen, umfasst mehrere Schlüsselbereiche, darunter technologische Upgrades, Compliance-Management, Geschäftsmodellanpassungen und strategische Investitionen in datengetriebene Innovationen.

    Technologische Upgrades

    Unternehmen müssen in ihre IT-Infrastrukturen investieren, um die Anforderungen des Data Acts zu erfüllen. Dies umfasst die Entwicklung oder Integration von Systemen, die einen sicheren, strukturierten und maschinenlesbaren Zugang zu Daten ermöglichen. Insbesondere müssen Unternehmen sicherstellen, dass ihre Produkte und Dienstleistungen den Nutzern einen direkten Zugang zu generierten Daten bieten können, was möglicherweise erhebliche Änderungen an der Art und Weise erfordert, wie Produkte konzipiert und Daten verwaltet werden.

    Compliance-Management

    Die Einhaltung der Vorschriften des Data Acts erfordert erhebliche Investitionen in Compliance-Management-Systeme. Unternehmen müssen Verfahren entwickeln, um den Zugang zu Daten, deren Nutzung und Weitergabe zu überwachen und zu steuern. Dies kann die Einführung neuer Compliance-Software, die Schulung von Personal und die Einstellung von Datenmanagement- und Compliance-Experten umfassen.

    Geschäftsmodellanpassungen

    Der Data Act könnte Unternehmen dazu zwingen, ihre Geschäftsmodelle zu überdenken, insbesondere wenn sie auf der Nutzung von Kundendaten basieren. Unternehmen müssen möglicherweise neue Einnahmequellen erschließen oder ihre Dienstleistungen anpassen, um den Beschränkungen und Möglichkeiten Rechnung zu tragen, die sich aus dem verbesserten Datenzugang und der Kontrolle für Nutzer ergeben. Dies könnte eine strategische Neuausrichtung erfordern und Investitionen in die Entwicklung neuer Produkte oder Dienstleistungen beinhalten.

    Investitionen in datengetriebene Innovationen

    Der Data Act zielt darauf ab, einen faireren und offeneren Datenmarkt zu schaffen. Dies könnte neue Chancen für Unternehmen eröffnen, datengesteuerte Innovationen zu entwickeln. Unternehmen könnten in fortschrittliche Datenanalysefähigkeiten, künstliche Intelligenz und maschinelles Lernen investieren, um neue Erkenntnisse aus den zugänglicheren Daten zu gewinnen und wettbewerbsfähige Vorteile zu erzielen.

    Risiken und Herausforderungen

    Mit diesen Investitionen sind auch Risiken verbunden. Unternehmen müssen die Kosten und den ROI dieser Investitionen sorgfältig abwägen, insbesondere in einem sich schnell entwickelnden regulatorischen Umfeld. Zudem müssen sie sich auf die potenziellen Herausforderungen bei der Implementierung neuer Systeme und Prozesse vorbereiten, einschließlich möglicher technischer Schwierigkeiten und der Notwendigkeit, die Unternehmenskultur und das Mitarbeiterengagement zu berücksichtigen.

    Fazit

    Der EU Data Act wird eine signifikante Transformation in der Art und Weise darstellen, wie Unternehmen Daten behandeln, was erhebliche Investitionen in Technologie, Compliance, Geschäftsstrategie und Innovation erfordert. Diese Investitionen sind nicht nur notwendig, um gesetzlichen Anforderungen zu genügen, sondern bieten auch die Möglichkeit, die Art und Weise, wie Unternehmen Wert aus Daten schaffen, neu zu gestalten und sich in einer zunehmend datengetriebenen Wirtschaft zu differenzieren. Unternehmen, die diese Veränderungen proaktiv angehen, können sich besser positionieren, um von den Vorteilen einer offeneren und gerechteren Datenwirtschaft in der EU zu profitieren.


  • EU Data Act – Herausforderungen für Airlines

    EU Data Act – Herausforderungen für Airlines

    Der EU Data Act stellt einen bedeutenden Schritt in der Regulierung der digitalen Wirtschaft in Europa dar und hat weitreichende Auswirkungen auf verschiedene Branchen, einschließlich der Luftfahrtindustrie.

    Der EU Data Act ist eine umfassende Gesetzgebung, die darauf abzielt, die Nutzung und den Austausch von Daten innerhalb der Europäischen Union zu regeln. Dies betrifft eine breite Palette von Sektoren und Unternehmen, einschließlich der Luftfahrtindustrie. Alle Airlines, die innerhalb der EU operieren, unabhängig davon, ob sie ihren Sitz in der EU haben oder nicht, würden unter die Bestimmungen des EU Data Acts fallen. Verschiedene Stakeholder könnten Interesse an den Daten von Airlines haben, jeweils u.a. aus unterschiedlichen Gründen:

    1. Regierungsbehörden und Aufsichtsorgane: Diese Gruppen benötigen Daten zur Überwachung der Sicherheit, Einhaltung von Vorschriften, zur Verkehrsplanung und zur Überwachung der Einhaltung von Verbraucherschutzgesetzen.
    2. Flughafenbetreiber: Sie nutzen Daten für die Optimierung von Flughafenoperationen, Passagierfluss, Bodenabfertigungsdienste und zur Planung der Infrastrukturentwicklung.
    3. Drittanbieter von Reisedienstleistungen: Unternehmen, die Zusatzleistungen wie Mietwagen, Hotels und Reiseversicherungen anbieten, könnten an Daten interessiert sein, um ihre Dienstleistungen besser auf die Bedürfnisse von Reisenden abzustimmen.
    4. Technologieanbieter: Firmen, die IT-Lösungen für die Luftfahrtindustrie entwickeln, benötigen Daten, um ihre Produkte zu verbessern, neue Lösungen zu entwickeln und die Effizienz der Airline-Operationen zu steigern.
    5. Forschungseinrichtungen und Akademiker: Sie verwenden Daten für Studien im Bereich Verkehrswesen, Wirtschaft, Soziologie und mehr, um Verhaltensmuster zu verstehen, Prognosemodelle zu entwickeln und politische Empfehlungen zu geben.
    6. Investoren und Finanzanalysten: Sie analysieren Daten, um die wirtschaftliche Gesundheit und das Potenzial von Airlines zu bewerten, was für Investitionsentscheidungen entscheidend ist.
    7. Partnerunternehmen und Allianzen: Airlines, die Teil von Allianzen sind, teilen Daten, um die Koordination von Flugplänen, die gemeinsame Nutzung von Ressourcen und die Bereitstellung nahtloser Reiseerlebnisse für Passagiere zu verbessern.
    8. Verbraucher und die Öffentlichkeit: Insbesondere bei aggregierten oder anonymisierten Daten könnten diese Informationen genutzt werden, um Trends zu verstehen, Preise zu vergleichen und informierte Entscheidungen über Reiseoptionen zu treffen.

    Der Umgang mit diesen Daten unterliegt strengen Datenschutzgesetzen, insbesondere in der EU unter der Datenschutz-Grundverordnung (DSGVO) und dem EU Data Act, um die Privatsphäre der Einzelpersonen zu schützen und den sicheren und ethischen Umgang mit Daten zu gewährleisten. Bei Airlines fallen eine Vielzahl von Daten an, die für verschiedene Aspekte des Betriebs und der Kundeninteraktion wichtig sind. Hier sind einige Beispiele für die Arten von Daten, die bei Airlines anfallen:

    1. Passagierdaten: Dazu gehören persönliche Informationen wie Name, Adresse, Passnummer, Treueprogrammnummern, Präferenzen bei der Sitzplatzwahl, spezielle Anforderungen (z.B. besondere Mahlzeiten, Unterstützung am Flughafen) und Kontaktinformationen.
    2. Flugdaten: Informationen über Flugrouten, Flugpläne, Flugzeugtypen, Sitzplatzkonfigurationen, Tarife und Verfügbarkeiten von Flügen.
    3. Buchungs- und Ticketdaten: Details zu den Buchungen, Ticketnummern, Tarifklassen, Zahlungsinformationen, Stornierungen und Umbuchungen.
    4. Betriebsdaten: Dazu gehören Informationen über die Flugzeugwartung, Flugzeugpositionen, Verspätungen, Annullierungen, Gepäckhandling und Crew-Einsatzpläne.
    5. Kundenservice-Daten: Kommunikationsprotokolle, Beschwerden, Feedback, Anfragen und Interaktionen mit dem Kundenservice.
    6. Finanzdaten: Umsatz, Ausgaben, Gewinn und andere finanzielle Kennzahlen, die für das Management der Fluggesellschaft wichtig sind.
    7. Website- und App-Nutzungsdaten: Informationen darüber, wie Kunden die Website oder App der Airline nutzen, einschließlich Suchanfragen, Buchungsverhalten und Präferenzen.
    8. Sicherheits- und Überwachungsdaten: Informationen, die aus Sicherheitsüberprüfungen, Überwachungskameras und anderen Sicherheitsmaßnahmen stammen.
    9. Cargo-Daten: Informationen über Frachtflüge, einschließlich Art und Gewicht der Fracht, Ursprung, Ziel und Zeitplan.

    Diese Daten helfen Airlines, ihre Dienstleistungen zu optimieren, die Kundenerfahrung zu verbessern, operative Effizienz zu steigern und strategische Entscheidungen zu treffen. Datenschutz und Datensicherheit spielen dabei eine entscheidende Rolle, da viele dieser Daten persönliche Informationen enthalten oder für die Sicherheit des Flugbetriebs kritisch sind. Der EU Data Act ist Teil einer breiteren Initiative der Europäischen Union, um einen einheitlichen digitalen Markt zu schaffen und die digitale Souveränität Europas zu stärken. Durch die Einführung neuer Vorschriften zum Datenzugriff und zur Datennutzung zielt der Data Act darauf ab, faire und innovative Datenmärkte zu fördern, den Wettbewerb zu stärken und den Verbraucherschutz zu verbessern.

    Für Airlines, die eine Fülle von Daten durch ihre täglichen Operationen, Kundeninteraktionen und vernetzten Dienste generieren, bringt der Data Act sowohl Herausforderungen als auch Chancen mit sich.
    Die Verordnung fordert von den Fluggesellschaften eine erhöhte Transparenz im Umgang mit Daten, verbesserte Zugriffsmöglichkeiten für Nutzer auf ihre eigenen Daten und eine stärkere Kontrolle über die Weitergabe dieser Daten an Dritte. Diese Anforderungen sind besonders relevant in einer Zeit, in der die Nutzung und Analyse von Daten eine zentrale Rolle in der strategischen Ausrichtung von Airlines spielen, von der Optimierung der Betriebsabläufe bis hin zur Personalisierung des Kundenerlebnisses. Darüber hinaus müssen Airlines sicherstellen, dass ihre Datenpraktiken den strengen Sicherheits- und Datenschutzstandards des Data Acts entsprechen, um das Vertrauen der Kunden zu wahren und regulatorische Sanktionen zu vermeiden. Die Notwendigkeit, interoperable und sichere Systeme zu implementieren, die einen reibungslosen und sicheren Datenaustausch ermöglichen, wird zu einem zentralen Anliegen für die IT-Abteilungen der Fluggesellschaften.

    Die technische Umsetzung des Data Acts erfordert von den Airlines eine sorgfältige Überprüfung und möglicherweise eine Überarbeitung ihrer bestehenden Dateninfrastrukturen. Sie müssen Mechanismen entwickeln, die es den Nutzern ermöglichen, ihre Daten effektiv zu verwalten, und gleichzeitig Systeme implementieren, die eine sichere und effiziente Datenteilung sowohl intern als auch mit externen Partnern unterstützen. Während der Data Act sicherlich Herausforderungen mit sich bringt, bietet er Airlines auch die Möglichkeit, ihre Datenstrategien zu überdenken und zu innovieren. Durch die Nutzung des verbesserten Zugangs zu und der Kontrolle über Daten können Airlines neue Geschäftsmodelle entwickeln, ihre Dienstleistungen verbessern und letztlich ein stärker kundenorientiertes Erlebnis schaffen. In dieser neuen Ära der Datenwirtschaft wird die Fähigkeit einer Airline, sich an die Bestimmungen des Data Acts anzupassen und die damit verbundenen Möglichkeiten zu nutzen, ein entscheidender Faktor für ihren Erfolg und ihre Wettbewerbsfähigkeit sein.

    Für Airlines könnte der EU Data Act bedeuten:

    Airlines müssen möglicherweise ihre Systeme anpassen, um den Nutzern direkten Zugang zu den Daten zu ermöglichen, die durch ihre Interaktionen und Dienstnutzungen generiert werden. Dies könnte Daten u.a. aus Buchungssystemen, Bordunterhaltung und anderen vernetzten Diensten umfassen.
    Die Einführung des EU Data Acts signalisiert eine deutliche Verschiebung hin zu größerer Datentransparenz und verbessertem Zugang zu Daten für Nutzer in der digitalen Wirtschaft. Diese Entwicklung hat tiefgreifende Auswirkungen auf Unternehmen und Verbraucher gleichermaßen, indem sie ein neues Paradigma für den Umgang mit und den Austausch von Daten etabliert. Im Kontext von Datentransparenz und Zugang adressiert der Data Act mehrere Schlüsselbereiche, die für das Verständnis seiner Auswirkungen entscheidend sind.

    Verbesserter Zugang zu Daten

    Der Data Act zielt darauf ab, den Nutzern von vernetzten Geräten und digitalen Diensten einen verbesserten Zugang zu den von ihnen generierten Daten zu gewähren. Dies bedeutet, dass Verbraucher und Unternehmen, die Daten durch die Nutzung von Produkten und Diensten generieren, das Recht haben, auf diese Daten zuzugreifen. Dieser Zugang ermöglicht es Nutzern, einen besseren Überblick über ihre eigenen Daten zu erhalten und ermöglicht ihnen, informiertere Entscheidungen über deren Nutzung zu treffen.

    Förderung von Datenportabilität

    Ein zentraler Aspekt des Data Acts ist die Förderung der Datenportabilität, also der Fähigkeit, Daten leicht von einem Dienstanbieter zu einem anderen zu übertragen. Dies soll Nutzern mehr Kontrolle über ihre Daten geben und gleichzeitig den Wettbewerb zwischen Unternehmen fördern, indem es Nutzern erleichtert wird, Dienste zu wechseln, ohne ihre Daten zu verlieren oder manuell übertragen zu müssen.

    Erhöhte Transparenz

    Unternehmen werden verpflichtet, transparenter über die Art und Weise zu sein, wie sie Daten sammeln, speichern und nutzen. Dies umfasst klare Informationen darüber, welche Daten gesammelt werden, zu welchem Zweck sie verwendet werden und wer Zugriff auf diese Daten hat. Eine solche Transparenz soll das Vertrauen der Nutzer in digitale Dienste stärken und ihnen eine fundierte Grundlage für die Zustimmung zur Datennutzung bieten.

    Stärkung der Rechte der Nutzer

    Durch den Data Act werden die Rechte der Nutzer in Bezug auf ihre Daten gestärkt. Nutzer haben nicht nur das Recht auf Zugang und Portabilität ihrer Daten, sondern auch das Recht, von Unternehmen zu verlangen, dass sie ihre Daten in einem gängigen und maschinenlesbaren Format bereitstellen. Dies erleichtert die Weiterverwendung dieser Daten für unterschiedliche Zwecke, einschließlich der Nutzung durch Drittdienste.

    Interoperabilitätsanforderungen

    Der Data Act legt auch einen starken Fokus auf die Interoperabilität von Datenformaten und -systemen. Dies soll sicherstellen, dass Daten problemlos zwischen verschiedenen Plattformen und Diensten geteilt werden können, was für die Schaffung eines nahtlosen digitalen Binnenmarktes essentiell ist. Durch die Standardisierung von Datenformaten und die Förderung offener Schnittstellen sollen Barrieren für den Datenaustausch abgebaut werden.

    Herausforderungen und Umsetzung

    Die Umsetzung dieser Prinzipien stellt Unternehmen vor Herausforderungen, insbesondere in Bezug auf die Anpassung ihrer Systeme und Prozesse, um den Anforderungen an Datentransparenz und Zugang gerecht zu werden. Dies kann Investitionen in neue Technologien und die Schulung von Personal erfordern, um sicherzustellen, dass die Vorschriften eingehalten werden.

    Insgesamt stellt der Data Act einen wesentlichen Schritt hin zu einer gerechteren und transparenteren Datenwirtschaft dar. Indem Nutzern mehr Kontrolle über ihre Daten gegeben wird und der Zugang zu und die Portabilität von Daten verbessert wird, zielt der Act darauf ab, die Innovation zu fördern, den Wettbewerb zu stärken und das Vertrauen in die digitale Wirtschaft zu erhöhen.

    Die Datenteilung mit Dritten im Rahmen des EU Data Acts ist eine zentrale Komponente, die darauf abzielt, den Zugang zu Daten zu erleichtern und deren Nutzung zu fördern, um Innovation und Wettbewerb in der Datenökonomie zu unterstützen. Der Data Act regelt detailliert, wie und unter welchen Bedingungen Daten zwischen verschiedenen Parteien geteilt werden können. Hier sind einige Schlüsselaspekte:

    Zugangsrecht für Nutzer und Dritte: Der Data Act verpflichtet Dateninhaber, wie z.B. Hersteller von vernetzten Produkten, Nutzerdaten bereitzustellen. Nutzer haben das Recht, auf ihre Daten zuzugreifen und diese Daten auch an Dritte weiterzugeben. Dritte, die Zugang zu diesen Daten erhalten, müssen dies unter fairen, angemessenen und nichtdiskriminierenden Bedingungen tun. Diese Regelung soll sicherstellen, dass die Datenweitergabe nicht zum Nachteil des Dateninhabers oder zu einer Verzerrung des Marktes führt​​.

    Vertragsbedingungen: Die Weitergabe von Daten an Dritte muss auf der Grundlage eines Vertrags erfolgen, der faire und angemessene Bedingungen für beide Parteien festlegt. Dies beinhaltet auch, dass der Dateninhaber für die Bereitstellung der Daten eine angemessene Vergütung verlangen kann​​.

    Interoperabilität und technische Standards: Der Data Act legt großen Wert auf die Interoperabilität, um sicherzustellen, dass Daten zwischen verschiedenen Systemen und Organisationen effizient geteilt werden können. Datenanbieter sind verpflichtet, den Wechsel von Datenverarbeitungsdiensten zu erleichtern und die Einhaltung von Interoperabilitätsstandards zu gewährleisten​​.

    Schutz von Geschäftsgeheimnissen: Der Data Act berücksichtigt auch den Schutz von Geschäftsgeheimnissen und sensiblen Informationen. Dateninhaber müssen nicht notwendigerweise Zugang zu abgeleiteten Daten gewähren, die Geschäftsgeheimnisse oder wettbewerbsrelevante Informationen enthalten könnten​​.

    Behördlicher Zugriff: Öffentliche Stellen können unter bestimmten Umständen, wie z.B. bei öffentlichen Notfällen, Zugang zu Daten erhalten. Dies soll sicherstellen, dass Daten im öffentlichen Interesse genutzt werden können, ohne die Grundprinzipien des Datenschutzes und der Datensicherheit zu untergraben​​.

    Insgesamt zielt der Data Act darauf ab, eine ausgewogene Regelung zu schaffen, die den Datenzugang und die Datennutzung fördert, während gleichzeitig der Datenschutz, die Geschäftsinteressen und die Marktintegrität gewahrt bleiben.

    Der Data Act räumt Nutzern das explizite Recht ein, auf ihre Daten zuzugreifen und diese mit Dritten zu teilen. Dies betrifft Daten, die von IoT-Geräten und verbundenen Diensten generiert werden. Nutzer können somit ihre Daten in der gleichen Qualität, wie sie ursprünglich erfasst wurden, kostenlos, in Echtzeit und in einem maschinenlesbaren Format erhalten. Diese Bestimmung ermutigt die Nutzer, ihre Daten aktiv zu verwalten und fördert die Interoperabilität sowie die Nutzung von Daten über verschiedene Dienste und Plattformen hinweg.

    Informationspflicht und Transparenz

    Hersteller und Anbieter von vernetzten Produkten und Diensten müssen Nutzer proaktiv über ihre Rechte bezüglich des Datenzugangs und der Datenteilung informieren. Dies umfasst Details zu Art, Umfang und Zweck der Datenerhebung sowie Informationen darüber, wie Nutzer auf ihre Daten zugreifen und diese teilen können. Diese Transparenz stärkt das Vertrauen der Nutzer und fördert ein bewussteres Verständnis der Datennutzung.

    Nutzerkontrolle und Wahlmöglichkeiten

    Nutzer haben das Recht, die Empfänger ihrer Daten selbst zu bestimmen, es sei denn, es handelt sich um einen sogenannten „Gatekeeper“ nach dem Digital Markets Act. Diese Kontrolle gibt den Nutzern die Möglichkeit, zu entscheiden, wer ihre Daten für welche Zwecke nutzen darf, und erhöht die Autonomie der Nutzer im digitalen Ökosystem.

    Faire und nichtdiskriminierende Vertragsbedingungen

    Wenn Daten an B2B-Empfänger weitergegeben werden, müssen die Bedingungen fair, angemessen und nichtdiskriminierend sein. Nutzer können Lizenzen an Dritte vergeben, die den Umfang und die Bedingungen der Datennutzung festlegen. Der Data Act zielt darauf ab, missbräuchliche Praktiken zu verhindern und einen ausgeglichenen Rahmen für die Datenteilung zu schaffen.

    Schutz von Geschäftsgeheimnissen

    Während der Data Act die Datenteilung fördert, schützt er gleichzeitig die Geschäftsgeheimnisse der Unternehmen. Dateninhaber dürfen Maßnahmen ergreifen, um ihre Geschäftsgeheimnisse zu schützen, und können in Ausnahmefällen die Weitergabe von Daten verweigern, wenn dadurch erhebliche wirtschaftliche Schäden entstehen könnten.

    Compliance und Sanktionen

    Unternehmen müssen sicherstellen, dass ihre Verträge und Praktiken zur Datenteilung mit den Vorschriften des Data Acts übereinstimmen. Verstöße können zu empfindlichen Strafen führen, was die Bedeutung einer sorgfältigen Compliance-Strategie unterstreicht.

    Zusammenfassend eröffnet der Data Act neue Möglichkeiten für die Datenteilung und stärkt die Rechte der Nutzer, während er gleichzeitig ein faires und sicheres digitales Umfeld fördert. Unternehmen müssen ihre Prozesse und Verträge anpassen, um diese neuen Anforderungen zu erfüllen und die Chancen, die sich aus einer offeneren und transparenteren Datennutzung ergeben, voll auszuschöpfen.

    Die Präsentation „Zwischen Datennutzung und Datenschutz – Zum Verhältnis von DSGVO, Data Act und Data Governance Act“ bietet einen umfassenden Einblick in die Verknüpfung von Datensicherheit, Datenschutz und Datenzugriff im Kontext des EU Data Acts. Hier sind einige Schlüsselpunkte zur Datensicherheit im Rahmen des Data Acts detailliert dargestellt:

    Verhältnis zwischen Data Act und DSGVO

    Der Data Act ergänzt die Datenschutz-Grundverordnung (DSGVO) und schafft einen rechtlichen Rahmen für den Umgang mit Daten, der sowohl den Zugang zu Daten als auch deren Sicherheit adressiert. Während der Data Act primär die Datenwirtschaft reguliert, bleibt der Schutz personenbezogener Daten weiterhin eine zentrale Säule der DSGVO. In Fällen, in denen die Vorschriften des Data Acts und der DSGVO kollidieren könnten, wird klargestellt, dass die DSGVO Vorrang hat.

    Datensicherheitsanforderungen

    Der Data Act betont die Notwendigkeit, angemessene technische und organisatorische Maßnahmen zu ergreifen, um die Sicherheit der Daten zu gewährleisten. Dies umfasst Schutz vor unbefugtem Zugriff, Datenverlust, Datenmanipulation und anderen Risiken. Unternehmen müssen sicherstellen, dass ihre Datensicherheitspraktiken den Anforderungen des Data Acts entsprechen und gleichzeitig mit den Datenschutzprinzipien der DSGVO in Einklang stehen.

    Zugangskontrollen und Authentifizierung

    Der Data Act unterstreicht die Bedeutung von Zugangskontrollen und Authentifizierungsmechanismen, um sicherzustellen, dass nur autorisierte Nutzer und Systeme auf Daten zugreifen können. Diese Kontrollen sind entscheidend, um die Integrität und Vertraulichkeit der Daten zu wahren und den Missbrauch von Daten zu verhindern.

    Datenübertragung und -verarbeitung

    Bei der Übertragung und Verarbeitung von Daten müssen Unternehmen Sicherheitsmaßnahmen implementieren, die den Schutz der Daten während des gesamten Lebenszyklus gewährleisten. Dies beinhaltet auch die sichere Übertragung von Daten zwischen verschiedenen Systemen oder bei der Bereitstellung von Daten für Dritte, wie im Data Act gefordert.

    Rechtliche Verpflichtungen und Haftung

    Unternehmen müssen sich der rechtlichen Verpflichtungen bewusst sein, die mit der Datensicherheit verbunden sind, und die potenzielle Haftung, die sich aus Verstößen gegen diese Verpflichtungen ergibt. Der Data Act sieht spezifische Anforderungen und Sanktionen vor, um die Einhaltung der Datensicherheitsbestimmungen zu gewährleisten.

    Datenschutz durch Design und Voreinstellung

    Der Data Act fördert den Ansatz des Datenschutzes durch Design und Voreinstellung, was bedeutet, dass Datensicherheit und Datenschutz von Anfang an in die Entwicklung von Produkten und Diensten integriert werden müssen. Dieser proaktive Ansatz hilft, Sicherheitslücken zu vermeiden und den Schutz von Nutzerdaten zu stärken.

    Insgesamt trägt der Data Act dazu bei, ein Gleichgewicht zwischen der Nutzung und dem freien Fluss von Daten und dem Schutz dieser Daten zu schaffen, um Vertrauen in die digitale Wirtschaft zu fördern und die Grundrechte der Nutzer zu wahren.

    Allgemeine Prinzipien des Data Acts, die branchenübergreifend gelten, sind auch auf Airlines anwendbar, um deren Innovationspotenzial zu beleuchten.

    Der EU Data Act zielt darauf ab, den Zugang zu und die Nutzung von Daten zu erleichtern, was für alle Wirtschaftszweige, einschließlich der Luftfahrtindustrie, gilt. Durch die Schaffung eines einheitlichen Rechtsrahmens für den Datenaustausch sollen Hindernisse für den Zugriff auf Daten beseitigt werden, was die Grundlage für Innovationen bildet. Insbesondere im Bereich der künstlichen Intelligenz, wo große Datenmengen für das Training von Algorithmen erforderlich sind, wird die Innovation gefördert​​.

    Für Airlines könnte dies bedeuten, dass diese einfacheren Zugang zu Daten erhalten, die bei der Nutzung vernetzter Produkte oder Dienste generiert werden, wie zum Beispiel Daten aus vernetzten Flugzeugen und anderen digitalen Diensten in der Luftfahrtbranche. Dies könnte die Entwicklung neuer Geschäftsmodelle, Dienstleistungen oder Verbesserungen in der Betriebseffizienz und im Kundenservice ermöglichen.

    Darüber hinaus unterstützt der Data Act Airlines, Daten besser zu nutzen und zu monetarisieren, indem er klare Regeln für die Datenweitergabe und -nutzung setzt. Durch die Förderung einer fairen Datenverteilung und Weiterverwendung der Daten könnten Airlines innovative Anwendungen entwickeln, die das Kundenerlebnis verbessern oder die Betriebseffizienz steigern.

    Zusammenfassend lässt sich sagen, dass der EU Data Act Airlines dabei unterstützen kann, das Potenzial seiner Daten voll auszuschöpfen, was zu Innovationen führen kann, die sowohl die Industrie als auch die Endverbraucher positiv beeinflussen.


  • GenAi – Die Herausforderung mit dem Datenschutz

    GenAi – Die Herausforderung mit dem Datenschutz

    GenAI-Entwicklung: Was Unternehmen jetzt im Datenschutz beachten müssen“

    Die Entwicklung von generativer künstlicher Intelligenz (GenAI) stellt für Unternehmen eine enorme Chance dar, innovative Lösungen und Dienstleistungen zu schaffen. Doch die Integration von GenAI in Geschäftsprozesse bringt auch erhebliche Herausforderungen im Bereich Datenschutz und Data Governance mit sich. Trotz des klaren Bewusstseins für die Wichtigkeit dieser Themen tun sich viele Unternehmen schwer, die entsprechenden Standards zu implementieren. Dieser Artikel untersucht die Gründe für diese Schwierigkeiten und bietet Einblicke, wie Unternehmen diese Herausforderungen angehen können.

    Komplexität der GenAI-Systeme

    Die Komplexität generativer künstlicher Intelligenz (GenAI) Systeme stellt im Kontext des Datenschutzes eine besondere Herausforderung dar. Diese Systeme, die darauf ausgelegt sind, Inhalte zu generieren, die von menschlichen Erzeugnissen kaum zu unterscheiden sind, basieren auf fortgeschrittenen maschinellen Lernmodellen, die enorme Datenmengen benötigen, um zu trainieren und zu operieren. Diese Komplexität beeinflusst den Datenschutz auf vielfältige Weisen.

    Datenmenge und -vielfalt

    GenAI-Systeme, wie GPT (Generative Pre-trained Transformer) oder DALL-E, lernen aus einer breiten Palette von Daten, die Texte, Bilder, Videos und mehr umfassen können. Die schiere Menge und Vielfalt dieser Daten bringen eine erste Ebene der Komplexität mit sich, da es schwierig sein kann, den Überblick darüber zu behalten, welche Daten genau verwendet werden, woher sie stammen, und ob sie sensible Informationen enthalten.

    Trainingsprozess

    Der Trainingsprozess von GenAI-Modellen beinhaltet das Durchlaufen von Millionen oder gar Milliarden von Datenpunkten, um Muster zu erkennen und zu lernen, wie man neue Inhalte erzeugt. Dieser Prozess kann unbeabsichtigt sensible Daten einbeziehen oder lernen, diese zu replizieren. Selbst wenn die generierten Ausgaben nicht direkt sensible Daten offenlegen, könnten sie genug Informationen enthalten, um Rückschlüsse auf die Trainingsdaten zu ermöglichen.

    Black-Box-Problem

    Ein wesentliches Merkmal von GenAI-Systemen ist ihre „Black-Box“-Natur. Das bedeutet, es ist oft nicht transparent, wie genau Entscheidungen oder Generierungen zustande kommen. Im Kontext des Datenschutzes wirft dies Fragen auf, da es schwierig sein kann zu überprüfen, ob und wie persönliche Daten innerhalb des Modells verwendet werden. Ohne diese Transparenz ist es herausfordernd, Datenschutzgarantien zu geben oder spezifische Datenschutzanforderungen zu erfüllen.

    Identifizierung und Anonymisierung von Daten

    Die Identifizierung und Anonymisierung von persönlichen Daten in den Trainingsdatensätzen ist ein weiterer kritischer Punkt. Angesichts der Komplexität und des Umfangs der für GenAI benötigten Daten kann es eine enorme Herausforderung sein, sicherzustellen, dass alle sensiblen Informationen korrekt identifiziert und behandelt werden. Fehler in diesem Prozess können zu Datenschutzverletzungen führen, selbst wenn die Daten nur indirekt in den generierten Inhalten reflektiert werden.

    Kontinuierliches Lernen

    Viele GenAI-Systeme lernen kontinuierlich weiter, indem sie neue Daten aufnehmen und ihre Modelle entsprechend anpassen. Dieser dynamische Aspekt erhöht die Komplexität, da Datenschutzmaßnahmen ständig überprüft und aktualisiert werden müssen, um mit der sich entwickelnden Natur des Systems Schritt zu halten.

    Lösungsansätze

    Um die Komplexität der GenAI-Systeme im Hinblick auf den Datenschutz zu adressieren, sind mehrschichtige Ansätze erforderlich:

    • Datenschutz durch Design: Datenschutzmaßnahmen sollten von Anfang an in die Entwicklung von GenAI-Systemen integriert werden, anstatt sie nachträglich anzufügen.
    • Transparenz und Erklärbarkeit: Es sollten Anstrengungen unternommen werden, die Transparenz und Nachvollziehbarkeit der AI-Entscheidungen zu verbessern, um nachzuweisen, dass keine sensiblen Daten missbraucht oder unsachgemäß offengelegt werden.
    • Robuste Datenanonymisierung: Die Techniken zur Anonymisierung von Daten müssen verbessert werden, um sicherzustellen, dass persönliche Daten in den Trainingsdaten nicht rekonstruiert oder abgeleitet werden können.
    • Regelmäßige Audits und Überwachung: Kontinuierliche Überprüfungen und Überwachungen der GenAI-Systeme können dazu beitragen, die Einhaltung der Datenschutzbestimmungen sicherzustellen und etwaige Risiken frühzeitig zu identifizieren.

    Durch die Anerkennung und Adressierung der Komplexität von GenAI-Systemen im Kontext des Datenschutzes können Unternehmen die Vorteile

    Datenherkunft und -qualität

    Die Datenherkunft und -qualität spielen eine entscheidende Rolle im Rahmen des Datenschutzes, insbesondere bei der Entwicklung und Implementierung von generativer künstlicher Intelligenz (GenAI). Die sorgfältige Berücksichtigung dieser Aspekte ist unerlässlich, um die Einhaltung von Datenschutzbestimmungen zu gewährleisten und das Risiko von Datenschutzverletzungen zu minimieren. Hier betrachten wir ausführlich, warum Datenherkunft und -qualität im Kontext des Datenschutzes so wichtig sind und welche Herausforderungen sich dabei stellen.

    Bedeutung der Datenherkunft

    Transparenz und Nachverfolgbarkeit: Die Kenntnis der Herkunft der Daten ermöglicht es Unternehmen, die Einhaltung der Datenschutzgesetze zu überprüfen und nachzuweisen. Es ist wichtig zu wissen, woher die Daten stammen, ob sie rechtmäßig erhoben wurden und ob die betroffenen Personen ihre Zustimmung gegeben haben.

    Compliance mit Datenschutzvorschriften: Verschiedene Jurisdiktionen haben unterschiedliche Datenschutzgesetze, die eingehalten werden müssen. Die EU-Datenschutz-Grundverordnung (DSGVO) zum Beispiel erfordert, dass Unternehmen die Zustimmung von Individuen einholen, bevor sie ihre Daten verarbeiten. Kenntnisse über die Datenherkunft sind entscheidend, um sicherzustellen, dass diese rechtlichen Anforderungen erfüllt werden.

    Vermeidung von Datenmissbrauch: Die Kenntnis der Herkunft der Daten hilft Unternehmen zu verstehen, für welche Zwecke die Daten ursprünglich gesammelt wurden, und sicherzustellen, dass ihre Verwendung im Einklang mit diesen ursprünglichen Zwecken steht.

    Bedeutung der Datenqualität

    Genauigkeit und Zuverlässigkeit: Hohe Datenqualität ist entscheidend, um sicherzustellen, dass die Ergebnisse von GenAI-Systemen zuverlässig sind. Ungenaue oder fehlerhafte Daten können zu falschen Schlüssen oder Entscheidungen führen, die rechtliche und ethische Konsequenzen haben können.

    Vermeidung von Bias: Die Qualität der Daten beeinflusst auch, ob und wie Bias in AI-Systemen eingebettet wird. Verzerrte oder einseitige Datensätze können dazu führen, dass GenAI-Systeme Vorurteile verstärken oder reproduzieren, was sowohl ethische als auch rechtliche Bedenken aufwirft.

    Schutz sensibler Informationen: Hochwertige Datenkontrollen können dazu beitragen, sensible Informationen zu identifizieren und zu schützen, indem sichergestellt wird, dass solche Daten angemessen anonymisiert oder pseudonymisiert werden, bevor sie in GenAI-Systemen verwendet werden.

    Herausforderungen bei Datenherkunft und -qualität

    Große Datenvolumen: GenAI-Systeme erfordern oft riesige Datensätze für das Training, was die Überprüfung der Datenherkunft und -qualität komplex und zeitaufwendig macht.

    Komplexe Datenlandschaften: In vielen Fällen stammen die Daten aus einer Vielzahl von Quellen, einschließlich öffentlicher Datensätze, Partnerschaften mit Dritten und direkter Datenerhebung. Jede Quelle kann unterschiedliche Datenschutz- und Datenqualitätsstandards haben.

    Dynamische Daten: Die Daten, die für GenAI-Systeme verwendet werden, ändern sich ständig. Dies bedeutet, dass die Datenherkunft und -qualität kontinuierlich überwacht und bewertet werden müssen, was eine fortlaufende Herausforderung darstellt.

    Lösungsansätze

    Implementierung von Daten-Governance-Rahmenwerken: Unternehmen sollten robuste Daten-Governance-Praktiken etablieren, die klare Richtlinien für den Umgang mit Datenherkunft und -qualität festlegen.

    Verwendung von Datenmanagement-Tools: Es gibt eine Reihe von Tools und Technologien, die bei der Verwaltung, Überprüfung und Verbesserung der Datenqualität helfen können, wie z.B. Datenkataloge, die Transparenz über die Datenherkunft bieten.

    Durchführung von Datenqualitätsaudits: Regelmäßige Audits können dazu beitragen, Probleme mit der Datenqualität zu identifizieren und zu beheben, und sicherstellen, dass die Daten den Datenschutz- und Qualitätsanforderungen entsprechen.

    Schulung und Bewusstseinsbildung: Mitarbeiter sollten über die Bedeutung von Datenherkunft und -qualität geschult werden und verstehen, wie diese Aspekte den Datenschutz und die Integrität von GenAI-Systemen beeinflussen.

    Durch die sorgfältige Berücksichtigung von Datenherkunft und -qualität können Unternehmen sicherstellen, dass ihre GenAI-Initiativen nicht nur effektiv, sondern auch im Einklang mit Datenschutzbestimmungen sind, wodurch das Risiko von Datenschutzverletzungen minimiert und das Vertrauen der Stakeholder gestärkt wird.

    Das rechtliche Umfeld im Bereich Datenschutz ist komplex und unterliegt ständigen Veränderungen. Unternehmen müssen mit einer Vielzahl von Datenschutzgesetzen auf lokaler, nationaler und internationaler Ebene zurechtkommen, die sich oft widersprechen oder schnell ändern können. Diese Unsicherheiten erschweren es, klare und beständige Datenschutz- und Governance-Strategien zu entwickeln.

    Mangel an Fachkenntnissen

    Es gibt einen allgemeinen Mangel an Fachkräften, die sowohl in der GenAI als auch im Datenschutz und in der Data Governance spezialisiert sind. Die Komplexität der Technologie erfordert ein tiefes Verständnis, um sicherzustellen, dass die Systeme ethisch und im Einklang mit Datenschutzbestimmungen entwickelt werden. Ohne ausreichendes Fachwissen können Unternehmen unbeabsichtigt Risiken eingehen oder wichtige Datenschutzmaßnahmen übersehen.

    Skalierungs- und Integrationsherausforderungen

    Die Skalierung von GenAI-Lösungen erfordert eine robuste Data-Governance-Struktur, die mit dem Wachstum der Daten und der KI-Systeme Schritt hält. Viele Unternehmen kämpfen jedoch damit, ihre Data-Governance-Strategien an die dynamische Natur von GenAI anzupassen. Zudem kann die Integration von GenAI in bestehende IT-Systeme und -Prozesse kompliziert sein und zusätzliche Datenschutzrisiken mit sich bringen.

    Handlungsempfehlungen

    Um diese Herausforderungen zu bewältigen, sollten Unternehmen:

    1. Investieren in Bildung und Schulung, um das Bewusstsein und die Kompetenz in Datenschutz und Data Governance zu erhöhen.
    2. Transparente Prozesse für die Datenbeschaffung etablieren und die Datenherkunft sorgfältig dokumentieren.
    3. Eng mit Datenschutzbeauftragten zusammenarbeiten, um sicherzustellen, dass GenAI-Entwicklungen den rechtlichen Anforderungen entsprechen.
    4. Flexible und skalierbare Data-Governance-Modelle entwickeln, die mit der Evolution von GenAI-Technologien wachsen können.
    5. Externe Expertise einholen, um Lücken im Wissen oder in den Fähigkeiten zu schließen und Best Practices zu implementieren.

    Indem Unternehmen diese Schritte unternehmen, können sie die Vorteile der GenAI voll ausschöpfen, während sie gleichzeitig ein starkes Fundament im Datenschutz und in der Data Governance aufbauen.

  • Der EU Data Act: Neue Geschäftsmodelle und Monetarisierungsmöglichkeiten für Unternehmen

    Der EU Data Act: Neue Geschäftsmodelle und Monetarisierungsmöglichkeiten für Unternehmen

    Der kürzlich verabschiedete EU Data Act markiert einen Wendepunkt in der Datenwirtschaft der Europäischen Union und bietet neue Geschäftsmodelle.

    Diese neue Gesetzgebung zielt darauf ab, ein gerechteres und transparenteres Umfeld für den Datenzugang und -austausch zu schaffen, was erhebliche Auswirkungen auf Unternehmen aller Größen und Branchen hat. Insbesondere bietet der Data Act neue Chancen für Geschäftsmodelle und Monetarisierungsstrategien, die auf der Nutzung von Daten basieren.

    Neue Geschäftsmodelle durch verbesserten Datenzugang

    Der EU Data Act ermöglicht es Nutzern, besseren Zugang zu ihren eigenen Daten zu erhalten, die von vernetzten Geräten und Diensten generiert werden. Dies öffnet die Tür für Unternehmen, innovative Dienstleistungen und Produkte zu entwickeln, die auf diesen Daten aufbauen. Beispielsweise können Unternehmen, die im Bereich des Internet der Dinge (IoT) tätig sind, maßgeschneiderte Lösungen anbieten, die auf den spezifischen Daten und Bedürfnissen der Nutzer basieren.

    Monetarisierung von Daten

    Durch den Data Act erhalten Unternehmen nicht nur Zugang zu neuen Datenquellen, sondern auch die Möglichkeit, diese Daten zu monetarisieren. Unternehmen können beispielsweise datengetriebene Analysedienste entwickeln, die wertvolle Einblicke für andere Unternehmen oder Verbraucher bieten. Dies eröffnet Wege für neue Einnahmequellen, die über traditionelle Produkt- und Dienstleistungsangebote hinausgehen.

    Einhaltung der Vorschriften als Geschäftsmodell

    Die Einhaltung des EU Data Acts kann selbst zu einem Geschäftsmodell werden. Unternehmen, die Expertise in der Umsetzung der Anforderungen des Data Acts haben, können Beratungsdienste für andere Unternehmen anbieten, die Hilfe bei der Navigation durch die neuen Vorschriften benötigen. Diese Beratungsdienste können von der technischen Implementierung bis hin zur strategischen Planung reichen.

    Schaffung von Datenökosystemen

    Der Data Act fördert die Schaffung von Datenökosystemen, in denen Unternehmen Daten sicher und effizient austauschen können. Dies ermöglicht die Entwicklung von Kollaborationsmodellen, in denen Unternehmen zusammenarbeiten, um gemeinsame Ziele zu erreichen, wie z.B. die Verbesserung der städtischen Mobilität oder die Förderung nachhaltiger Praktiken. Solche Ökosysteme können neue Geschäftsmöglichkeiten eröffnen und gleichzeitig zur Lösung gesellschaftlicher Herausforderungen beitragen.

    Fazit

    Der EU Data Act bietet Unternehmen eine Fülle von Möglichkeiten, innovative Geschäftsmodelle zu entwickeln und neue Einnahmequellen zu erschließen. Durch die Verbesserung des Zugangs zu und des Austauschs von Daten können Unternehmen nicht nur neue Produkte und Dienstleistungen entwickeln, sondern auch einen bedeutenden Beitrag zur digitalen Wirtschaft leisten. Die Einhaltung des Data Acts wird zu einem kritischen Erfolgsfaktor, der neue Geschäftsmöglichkeiten eröffnet und gleichzeitig das Vertrauen der Verbraucher stärkt. Unternehmen, die diese Chancen proaktiv nutzen, werden in der Lage sein, sich in der sich schnell entwickelnden Datenwirtschaft der EU zu behaupten und zu wachsen.

  • Auswirkungen der EU Datenstrategie auf die Datenschutzaufsicht

    Auswirkungen der EU Datenstrategie auf die Datenschutzaufsicht

    Die EU-Datenstrategie, die Teil des digitalen Gesamtplans der Europäischen Union ist, zielt darauf ab, einen einheitlichen europäischen Datenraum zu schaffen.

    Diese Strategie hat bedeutende Auswirkungen auf die Datenschutzaufsicht und stellt sowohl Herausforderungen als auch Chancen für Aufsichtsbehörden, Unternehmen und Bürger dar. Im Folgenden werden die wesentlichen Auswirkungen der EU-Datenstrategie auf die Datenschutzaufsicht detailliert erörtert.

    Verstärkte Zusammenarbeit zwischen den Aufsichtsbehörden

    Die Schaffung eines einheitlichen europäischen Datenraums erfordert eine verstärkte Zusammenarbeit und Koordinierung zwischen nationalen Datenschutzbehörden innerhalb der EU. Um eine konsistente Anwendung der DSGVO zu gewährleisten, müssen die Behörden in grenzüberschreitenden Fällen eng zusammenarbeiten. Dies könnte durch den Austausch von Best Practices, gemeinsame Richtlinien und die Durchführung koordinierter Untersuchungen verstärkt werden. Die Europäische Datenschutzausschuss (EDSA) spielt hierbei eine zentrale Rolle, indem sie die Zusammenarbeit fördert und für die Kohärenz der Datenschutzaufsicht in der EU sorgt.

    Erhöhung der Ressourcen und Kapazitäten

    Die Umsetzung der EU-Datenstrategie und die Überwachung der Einhaltung der Datenschutzvorschriften erfordern erhebliche Ressourcen und technische Expertise von den Aufsichtsbehörden. Um mit der zunehmenden Menge und Komplexität der Datenverarbeitungsaktivitäten Schritt zu halten, müssen die Behörden ihre Kapazitäten ausbauen. Dies umfasst nicht nur personelle Ressourcen, sondern auch die Entwicklung technischer Fähigkeiten, um technologische Entwicklungen zu verstehen und zu bewerten.

    Anpassung an neue Technologien

    Die EU-Datenstrategie legt einen starken Fokus auf die Nutzung neuer Technologien wie künstliche Intelligenz (KI) und das Internet der Dinge (IoT). Für die Datenschutzaufsicht bedeutet dies, dass sie sich mit den datenschutzrechtlichen Herausforderungen, die diese Technologien mit sich bringen, auseinandersetzen und entsprechende Leitlinien und Rahmenwerke entwickeln müssen. Dies erfordert eine kontinuierliche Weiterbildung und Anpassung an die technologische Entwicklung, um sicherzustellen, dass der Datenschutz von Anfang an in diese Technologien integriert wird (Privacy by Design).

    Fokus auf Datenportabilität und Interoperabilität

    Ein zentrales Ziel der EU-Datenstrategie ist die Förderung der Datenportabilität und Interoperabilität, um einen leichteren Datenaustausch und Zugang zu Daten zu ermöglichen. Dies hat direkte Auswirkungen auf die Datenschutzaufsicht, da die Behörden sicherstellen müssen, dass die Rechte der Bürger auf Datenportabilität gewahrt bleiben und gleichzeitig der Datenschutz nicht beeinträchtigt wird. Die Aufsichtsbehörden könnten dazu aufgerufen werden, Leitlinien für die sichere und datenschutzkonforme Implementierung von Interoperabilitätsstandards zu entwickeln.

    Verstärkter Schutz sensibler Daten

    Die EU-Datenstrategie erkennt auch die Bedeutung des Schutzes sensibler Daten an, insbesondere in Bereichen wie Gesundheitswesen, Energie und Finanzen. Die Aufsichtsbehörden stehen vor der Herausforderung, einen Ausgleich zwischen der Förderung der Datenwirtschaft und dem Schutz personenbezogener Daten zu finden, insbesondere wenn es um sensible Daten geht. Sie müssen sicherstellen, dass solche Daten nur unter strengen Datenschutzauflagen verarbeitet und ausgetauscht werden.

    Schlussfolgerung

    Die EU-Datenstrategie stellt die Datenschutzaufsicht vor neue Herausforderungen und erfordert eine proaktive Anpassung an die sich schnell entwickelnde Datenlandschaft. Die Aufsichtsbehörden müssen ihre Zusammenarbeit


    EU-Datenstrategie

    Die EU-Datenstrategie, vorgestellt im Februar 2020, zielt darauf ab, einen einheitlichen europäischen Datenraum zu schaffen – einen echten Binnenmarkt für Daten, der den freien Fluss von Daten innerhalb der EU sicherstellt. Die Strategie konzentriert sich auf das Potenzial von Daten zur Förderung der Wirtschaft und zur Unterstützung der Gesellschaft in Bereichen wie Gesundheitsversorgung, Mobilität, und Energieeffizienz. Hauptziele der Datenstrategie sind:

    • Die Förderung des Datenflusses innerhalb der EU und die Gewährleistung, dass Daten sicher und unter Einhaltung der EU-Datenschutzstandards genutzt und geteilt werden können.
    • Die Unterstützung der Entwicklung von Technologien und Infrastrukturen für die Datenspeicherung und -verarbeitung.
    • Die Stärkung der Kompetenzen und Fähigkeiten von Bürgern und Unternehmen im Umgang mit Daten.
    • Die Etablierung klarer Regeln für den Zugang zu und die Nutzung von Daten, insbesondere von Daten, die von öffentlichen Stellen generiert werden.

    EU Data Act

    Der EU Data Act, der im Februar 2022 vorgeschlagen wurde, ist ein legislativer Vorschlag, der darauf abzielt, die Regeln für den Zugang zu und die Nutzung von Daten zu klären. Er ergänzt die Datenstrategie, indem er spezifische Bestimmungen für den gerechten Zugang zu und die Nutzung von Daten einführt. Der Data Act konzentriert sich auf:

    • Die Regelung der Rechte und Pflichten im Zusammenhang mit der Datennutzung, insbesondere in Bezug auf das Teilen von Daten zwischen Unternehmen und mit der öffentlichen Hand.
    • Die Klärung der Bedingungen, unter denen Datenzugang und -nutzung für Produkte und Dienstleistungen erfolgen, die mit vernetzten Geräten und Diensten verbunden sind.
    • Die Stärkung der Verbraucherrechte durch verbesserten Zugang zu den von ihren genutzten Produkten und Dienstleistungen generierten Daten.

    Zusammenhang und Synergien

    Die EU-Datenstrategie bietet den breiten Rahmen und die Vision für die Datenpolitik der EU, während der Data Act spezifische Regeln für die Umsetzung dieser Vision festlegt. Der Data Act ist somit ein wesentliches Instrument zur Realisierung der Ziele der Datenstrategie, insbesondere im Hinblick auf den gerechten Zugang zu und die Nutzung von Daten. Zusammen bilden sie ein robustes Regelwerk, das darauf abzielt, das Potenzial von Daten als Treiber der digitalen Wirtschaft zu maximieren, dabei aber Datenschutz, Sicherheit und die Rechte der Individuen zu wahren.

    Durch die Kombination von politischen Initiativen und legislativen Maßnahmen arbeitet die EU daran, eine führende Rolle in der globalen Datenwirtschaft einzunehmen, die Innovation fördert und gleichzeitig ein hohes Maß an Datenschutz und Datensicherheit gewährleistet.

  • Access to in-vehicle data – Datenschutz Herausforderung und Lösungen

    Access to in-vehicle data – Datenschutz Herausforderung und Lösungen

    In der heutigen Ära der Digitalisierung und Vernetzung spielen Fahrzeugdaten eine entscheidende Rolle bei der Entwicklung innovativer Dienste und Anwendungen im Automobilsektor.

    Diese Daten, die von Sensoren und Systemen innerhalb des Fahrzeugs generiert werden, bieten ein enormes Potenzial für Verbesserungen in Bereichen wie Verkehrssicherheit, Effizienz und personalisierte Nutzererfahrungen. Gleichzeitig wirft der Zugriff auf und die Nutzung dieser Daten ernsthafte Fragen hinsichtlich des Datenschutzes und der Privatsphäre der Fahrzeugnutzer auf. In diesem Artikel werden die Herausforderungen beim Zugriff auf Fahrzeugdaten, die Bedeutung des Datenschutzes und mögliche Lösungsansätze erörtert.

    Herausforderungen beim Zugriff auf Fahrzeugdaten

    Technische Aspekte

    Die technische Realisierung des Zugriffs auf Fahrzeugdaten umfasst eine Vielzahl von Herausforderungen, die von der Heterogenität der Fahrzeugsysteme und Datenformate über die Sicherstellung der Datenqualität bis hin zu Datenschutz und Sicherheitsanforderungen reichen. Diese Aspekte sind entscheidend für die Entwicklung, Implementierung und den erfolgreichen Einsatz von Anwendungen und Diensten, die auf Fahrzeugdaten basieren.

    Heterogenität der Fahrzeugsysteme

    Moderne Fahrzeuge sind komplexe Systeme, die mit zahlreichen Sensoren und Steuereinheiten ausgestattet sind. Diese Systeme generieren eine breite Palette von Daten, von Motordaten über Fahrverhaltensinformationen bis hin zu Infotainment-Nutzungsdaten. Die Hersteller nutzen jedoch unterschiedliche Technologien, Protokolle und Standards, was den universellen Zugriff auf diese Daten erschwert. Die Entwicklung von Anwendungen, die über verschiedene Fahrzeugmarken und -modelle hinweg kompatibel sind, erfordert daher einen erheblichen Aufwand bei der Integration und Anpassung.

    Datenformate und -schnittstellen

    Die Vielfalt der Datenformate und Schnittstellen in Fahrzeugen stellt eine weitere Herausforderung dar. Während einige Hersteller proprietäre Lösungen verwenden, bewegt sich der Trend hin zu offeneren und standardisierten Formaten. Allerdings ist dieser Übergang noch nicht abgeschlossen, und die Kompatibilität bleibt ein zentrales Problem. Standardisierungsbemühungen, wie sie beispielsweise von der ISO oder dem World Wide Web Consortium (W3C) vorangetrieben werden, zielen darauf ab, einheitliche Schnittstellen und Protokolle zu etablieren, die den Zugriff auf Fahrzeugdaten vereinfachen.

    Qualität und Verlässlichkeit der Daten

    Die Qualität und Verlässlichkeit der von Fahrzeugsystemen generierten Daten sind entscheidend für deren Nutzbarkeit. Ungenaue, unvollständige oder verzögerte Daten können die Funktionalität und Zuverlässigkeit von darauf basierenden Anwendungen beeinträchtigen. Herausforderungen in diesem Bereich umfassen die Kalibrierung von Sensoren, die Konsistenz der Datenerfassung unter verschiedenen Betriebsbedingungen und die effektive Verarbeitung und Analyse großer Datenmengen in Echtzeit.

    Datenschutz und Datensicherheit

    Mit dem zunehmenden Zugriff auf Fahrzeugdaten wachsen auch die Anforderungen an Datenschutz und Datensicherheit. Es müssen Technologien und Verfahren implementiert werden, die sowohl den Schutz personenbezogener Daten gewährleisten als auch das Fahrzeug und seine Systeme vor unerlaubten Zugriffen und Cyberangriffen schützen. Zu den technischen Maßnahmen gehören Verschlüsselung, sichere Authentifizierungsprotokolle und die kontinuierliche Überwachung von Sicherheitslücken. Darüber hinaus ist die Entwicklung von Systemen notwendig, die den Nutzern Kontrolle über ihre Daten geben und transparent machen, welche Daten gesammelt und wie sie verwendet werden.

    Fazit

    Die technischen Aspekte beim Zugriff auf Fahrzeugdaten stellen eine bedeutende Herausforderung für die Automobilindustrie und angrenzende Sektoren dar. Die Bewältigung dieser Herausforderungen erfordert eine enge Zusammenarbeit zwischen Fahrzeugherstellern, Zulieferern, Diensteanbietern und Regulierungsbehörden. Durch die Standardisierung von Datenformaten und Schnittstellen, die Sicherstellung der Datenqualität und die Implementierung von Datenschutz– und Sicherheitsmaßnahmen können die technischen Grundlagen für innovative Anwendungen und Dienste geschaffen werden, die das volle Potenzial von Fahrzeugdaten nutzen.

    Rechtliche und regulatorische Fragen

    Rechtliche und regulatorische Fragen beim Zugriff auf Fahrzeugdaten

    Der Zugriff auf und die Nutzung von Fahrzeugdaten werfen eine Reihe von rechtlichen und regulatorischen Fragen auf, die eng mit Datenschutz, Eigentumsrechten und der Nutzung personenbezogener Informationen verbunden sind. Diese rechtlichen Herausforderungen werden durch die schnelle Entwicklung der Technologie und die Globalisierung des Marktes noch verstärkt. Im Folgenden werden die wichtigsten rechtlichen und regulatorischen Aspekte beleuchtet, die bei der Handhabung von Fahrzeugdaten berücksichtigt werden müssen.

    Datenschutzgesetze

    Datenschutzgesetze wie die Europäische Datenschutz-Grundverordnung (DSGVO) setzen strenge Rahmenbedingungen für den Umgang mit personenbezogenen Daten. Diese Gesetze verlangen von Unternehmen, die Transparenz darüber zu gewährleisten, welche Daten gesammelt werden, wie diese genutzt und geschützt werden und wie lange sie gespeichert bleiben. Die DSGVO betont insbesondere das Prinzip der Datensparsamkeit, d.h., es dürfen nur so viele Daten gesammelt werden, wie für den angegebenen Zweck unbedingt notwendig ist. Zudem müssen die Nutzer ihre ausdrückliche Zustimmung zur Datenerhebung und -verarbeitung geben, was die Gestaltung von Benutzerschnittstellen und Datenschutzerklärungen beeinflusst.

    Eigentums- und Zugriffsrechte

    Eine weitere rechtliche Herausforderung betrifft die Frage, wem die Daten, die von Fahrzeugen generiert werden, eigentlich gehören und wer darauf zugreifen darf. Während Fahrzeughersteller argumentieren könnten, dass sie Eigentümer der Daten sind, da die Daten von ihren Fahrzeugen und Systemen generiert werden, könnten Fahrzeugbesitzer oder -nutzer geltend machen, dass die Daten, die ihr Fahrverhalten betreffen, ihnen gehören. Dies führt zu komplexen Fragen bezüglich der Eigentumsrechte und wie diese in Lizenzvereinbarungen, Nutzungsbedingungen und Datenschutzrichtlinien abgebildet werden sollten.

    Internationale Datenübertragung

    Die globale Natur der Automobilindustrie und der digitalen Dienste führt dazu, dass Fahrzeugdaten oft grenzüberschreitend übertragen und verarbeitet werden. Dies stellt eine Herausforderung dar, da die Datenschutzgesetze von Land zu Land variieren. Unternehmen müssen sicherstellen, dass sie beim Transfer von Daten über Grenzen hinweg die lokalen Datenschutzgesetze einhalten, was die Komplexität der Datenverwaltung und -sicherheit erhöht.

    Regulatorische Standards für Fahrzeugdaten

    Die Entwicklung regulatorischer Standards speziell für Fahrzeugdaten steht noch am Anfang. Es gibt Bestrebungen, einheitliche Standards für den Datenaustausch, die Datensicherheit und den Datenschutz im Kontext vernetzter Fahrzeuge zu etablieren. Solche Standards könnten dazu beitragen, die Rechtsunsicherheit zu verringern und sowohl Herstellern als auch Verbrauchern klare Richtlinien an die Hand zu geben. Ein Beispiel hierfür ist die Arbeit der Europäischen Union an der Einführung einer eCall-Verordnung, die vorschreibt, dass alle neuen Fahrzeuge mit einem System ausgestattet sein müssen, das im Falle eines schweren Unfalls automatisch die Notdienste alarmiert.

    Herausforderungen bei der Umsetzung

    Die Umsetzung rechtlicher und regulatorischer Anforderungen in technische Lösungen ist eine weitere Herausforderung. Unternehmen müssen in der Lage sein, technische Systeme und Prozesse so zu gestalten, dass sie den rechtlichen Anforderungen entsprechen. Dies umfasst die Implementierung von Systemen zur Einholung der Zustimmung, zur Gewährleistung der Datensicherheit, zur Anonymisierung von Daten und zur Einrichtung von Mechanismen für die Datenportabilität.

    Fazit

    Die rechtlichen und regulatorischen Fragen rund um den Zugriff auf Fahrzeugdaten sind vielschichtig und komplex. Sie erfordern eine sorgfältige Navigation durch ein sich ständig weiterentwickelndes rechtliches Umfeld sowie die Entwicklung von Strategien, die sowohl den Schutz der Verbraucherdaten als auch die Förderung von Innovationen und die Bereitstellung neuer Dienste ermöglichen. Angesichts der sich rasch entwickelnden Technologien und der zunehmenden Bedeutung von Daten im Automobilsektor ist es entscheidend, dass alle Beteiligten – von Fahrzeugherstellern über Softwareentwickler bis hin zu Regulierungsbehörden – zusammenarbeiten, um praktikable Lösungen zu entwickeln, die Rechtssicherheit schaffen und gleichzeitig die Potenziale der digitalen Transformation im Automobilsektor voll ausschöpfen.

    Datenschutz und Privatsphäre

    Fahrzeugdaten können sensible Informationen über das Verhalten und die Vorlieben der Nutzer enthalten. Ohne angemessene Schutzmaßnahmen besteht die Gefahr, dass diese Informationen missbraucht werden, was zu Verletzungen der Privatsphäre und potenziellem Identitätsdiebstahl führen kann.

    Bedeutung des Datenschutzes

    Der Schutz personenbezogener Daten ist nicht nur eine rechtliche Verpflichtung, sondern auch ein entscheidender Faktor für das Vertrauen der Nutzer. Die Einhaltung von Datenschutzstandards und -gesetzen, wie der Europäischen Datenschutz-Grundverordnung (DSGVO), ist essentiell, um die Rechte der Individuen zu wahren und das Vertrauen in neue Technologien zu stärken.

    Lösungsansätze

    Entwicklung von Standards

    Die Schaffung einheitlicher Standards für den Zugriff auf und die Nutzung von Fahrzeugdaten könnte die Interoperabilität zwischen verschiedenen Akteuren und Diensten verbessern. Organisationen wie die ISO arbeiten bereits an solchen Standards.

    Datenschutz durch Technikgestaltung

    Die Implementierung von Datenschutzprinzipien bereits in der Entwicklungsphase von Technologien (Privacy by Design) kann dazu beitragen, Datenschutzrisiken von vornherein zu minimieren. Techniken wie die Anonymisierung von Daten sind hierbei von zentraler Bedeutung.

    Transparente Nutzerkommunikation

    Die klare Kommunikation darüber, welche Daten gesammelt werden, wie sie verwendet werden und welche Kontrollmöglichkeiten die Nutzer haben, ist entscheidend für die Akzeptanz und das Vertrauen in datengetriebene Dienste.

    Sicherheitsmaßnahmen

    Die Implementierung fortgeschrittener Sicherheitsmaßnahmen zum Schutz vor unbefugtem Zugriff und Datenlecks ist unerlässlich. Dazu gehören Verschlüsselungstechniken, sichere Datenübertragung und regelmäßige Sicherheitsüberprüfungen.

    Fazit

    Der Zugriff auf Fahrzeugdaten bietet ein enormes Potenzial für Innovationen im Automobilsektor, stellt aber gleichzeitig erhebliche Herausforderungen in Bezug auf Datenschutz und Privatsphäre dar. Durch die Entwicklung von Standards, die Einbettung von Datenschutzprinzipien in die Technikgestaltung, transparente Kommunikation und strenge Sicherheitsmaßnahmen können diese Herausforderungen bewältigt und das Vertrauen der Nutzer in neue Technologien gestärkt werden. Letztendlich ist ein ausgewogener Ansatz erforderlich, der sowohl die wirtschaftlichen als auch die persönlichen Rechte


    Access to in-vehicle data – Beratung und Umsetzung

  • EU Data Act Rechte und Pflichten für Unternehmen

    EU Data Act Rechte und Pflichten für Unternehmen

    Der EU Data Act ist ein entscheidender Schritt in der Entwicklung digitaler Rechte und Pflichten innerhalb der Europäischen Union, mit weitreichenden Implikationen für Unternehmen.

    In einer Zeit, in der Daten als das neue Öl gelten, hat die Europäische Union einen entscheidenden Schritt unternommen, um die Nutzung und den Austausch digitaler Informationen zu regulieren und zu fördern. Der EU Data Act, ein zentraler Bestandteil der digitalen Agenda der EU, zielt darauf ab, die Datenökonomie innerhalb des Binnenmarktes zu stärken, indem er einen ausgewogenen Rahmen für den Zugang zu und die Nutzung von Daten schafft. Diese Initiative reflektiert das wachsende Bewusstsein um die Bedeutung von Daten als Treiber für Innovation, Wirtschaftswachstum und gesellschaftliche Entwicklung sowie die Notwendigkeit, faire Wettbewerbsbedingungen und Datenschutzstandards zu gewährleisten.

    Die Digitalisierung durchdringt alle Sektoren der Wirtschaft und des gesellschaftlichen Lebens, generiert immense Datenmengen und eröffnet neue Möglichkeiten für Wirtschaftsakteure. Gleichzeitig wirft sie Fragen hinsichtlich des Eigentums, der Kontrolle und des Schutzes dieser Daten auf. In diesem Kontext entwirft der EU Data Act einen umfassenden Rechtsrahmen, der darauf abzielt, die Potenziale der Datenwirtschaft zu maximieren, während gleichzeitig die Rechte der Datenproduzenten, Verbraucher und Bürger geschützt werden.

    Diese Einleitung beleuchtet die Hintergründe, Ziele und Hauptmerkmale des EU Data Acts. Sie bietet einen Überblick über die Rechte und Pflichten, die der Act für Unternehmen festlegt, und diskutiert die Bedeutung dieser neuen Gesetzgebung für die Förderung einer offenen, fairen und sicheren digitalen Wirtschaft in Europa. Mit der Einführung des Data Acts stellt die EU die Weichen für eine Zukunft, in der Daten frei fließen können, ohne dass die Sicherheit und die Grundrechte der Bürger kompromittiert werden. Der Act ist ein klares Signal an die Welt, dass Europa bestrebt ist, die Führung in der Schaffung eines gerechten und nachhaltigen digitalen Ökosystems zu übernehmen, das Innovation fördert und gleichzeitig den Schutz personenbezogener Daten gewährleistet.

    Rechte für Unternehmen

    1. Zugang zu Daten: Unternehmen erhalten klar definierte Rechte, um auf Daten zuzugreifen, die durch Produkte oder Dienstleistungen generiert werden, die sie nutzen oder anbieten. Dies soll Innovationen vorantreiben und neue Geschäftsmodelle ermöglichen.
    2. Datenteilung: Der Act fördert die Datenteilung zwischen Unternehmen und mit der öffentlichen Hand, indem er Mechanismen für einen gerechten und effizienten Datenaustausch etabliert.
    3. Datenschutz und -sicherheit: Der Act betont die Bedeutung des Datenschutzes und der Datensicherheit und verlangt von Unternehmen, geeignete Maßnahmen zu ergreifen, um die Sicherheit der geteilten Daten zu gewährleisten.

    Die Rechte, die der EU Data Act für Unternehmen vorsieht, stellen einen wesentlichen Pfeiler für die Förderung einer innovativen und wettbewerbsfähigen Datenwirtschaft in der Europäischen Union dar. Diese Rechte sind darauf ausgerichtet, den Zugang zu und die Nutzung von Daten zu erleichtern, faire Marktbedingungen zu schaffen und gleichzeitig die Innovationsfähigkeit europäischer Unternehmen zu stärken. Nachfolgend werden die zentralen Rechte, die der EU Data Act Unternehmen einräumt, detailliert beleuchtet.

    Zugang zu Daten | Rechte & Pflichten

    Der EU Data Act etabliert klare Regeln für den Zugang zu Daten, die durch Produkte oder Dienstleistungen generiert werden. Unternehmen erhalten das Recht, auf diese Daten zuzugreifen, was für die Entwicklung neuer Dienstleistungen und Produkte essentiell ist. Dieser Zugang ermöglicht es Unternehmen, datengesteuerte Entscheidungen zu treffen, ihre Angebote zu verbessern und innovative Lösungen zu entwickeln, die auf den spezifischen Bedürfnissen ihrer Kunden basieren.

    Datenteilung | Rechte & Pflichten

    Ein weiteres zentrales Recht, das der Act Unternehmen gewährt, ist die Erleichterung der Datenteilung. Dies betrifft sowohl die Teilung zwischen Unternehmen untereinander als auch mit der öffentlichen Hand. Der Act zielt darauf ab, Hemmnisse für die Datenteilung zu beseitigen und Mechanismen für einen gerechten, transparenten und effizienten Datenaustausch zu schaffen. Dies fördert nicht nur die Entwicklung neuer Geschäftsmodelle, sondern unterstützt auch die öffentliche Verwaltung und Dienste, indem Unternehmen und öffentliche Einrichtungen Daten in einer Weise teilen können, die Innovation und öffentlichen Nutzen maximiert.

    Datenportabilität

    Der EU Data Act stärkt das Recht auf Datenportabilität, was bedeutet, dass Unternehmen die Möglichkeit haben, Daten leicht von einem Dienstleister zu einem anderen zu übertragen. Dies erhöht den Wettbewerb unter Anbietern und gibt Unternehmen die Freiheit, die für sie am besten geeigneten Dienstleistungen auszuwählen, ohne durch proprietäre Datenformate oder Plattformbindung eingeschränkt zu sein.

    Schutz und Sicherheit von Daten

    Während der Act den Zugang zu und die Nutzung von Daten erleichtert, legt er gleichzeitig großen Wert auf den Schutz und die Sicherheit dieser Daten. Unternehmen haben das Recht, zu erwarten, dass die Daten, die sie teilen oder auf die sie zugreifen, angemessen geschützt werden. Der Act verlangt von allen Akteuren, geeignete Maßnahmen zu ergreifen, um die Integrität und Vertraulichkeit der Daten zu gewährleisten und gleichzeitig die Einhaltung der Datenschutzgrundverordnung (DSGVO) sicherzustellen.

    Pflichten für Unternehmen

    1. Transparenz: Unternehmen müssen transparente Bedingungen für den Zugang zu und die Nutzung von Daten schaffen. Dies beinhaltet klare Informationen darüber, wie Daten gesammelt, verwendet und geteilt werden.
    2. Nichtdiskriminierung: Der Data Act verbietet diskriminierende Praktiken bei der Datenzugänglichkeit und -nutzung, um einen fairen Wettbewerb zu gewährleisten.
    3. Interoperabilität: Unternehmen müssen sicherstellen, dass ihre Systeme und Daten interoperabel sind, um die nahtlose Datenteilung innerhalb der EU zu ermöglichen.
    4. Datenschutz: In Übereinstimmung mit der GDPR müssen Unternehmen die Privatsphäre der Nutzer respektieren und sicherstellen, dass personenbezogene Daten geschützt sind.

    Mit der Einführung des EU Data Acts werden nicht nur Rechte, sondern auch umfassende Pflichten für Unternehmen festgelegt, um einen gerechten, transparenten und sicheren Umgang mit Daten im digitalen Binnenmarkt der Europäischen Union zu gewährleisten. Diese Pflichten sind darauf ausgerichtet, den Schutz der Dateninhaber zu stärken, faire Wettbewerbsbedingungen zu schaffen und die Integrität des europäischen Datenraums zu sichern. Im Folgenden werden die wesentlichen Pflichten, die der EU Data Act für Unternehmen vorsieht, detailliert erörtert.

    Transparenzpflichten

    Unternehmen sind verpflichtet, transparente Bedingungen für den Zugang zu und die Nutzung von Daten zu schaffen. Dies umfasst klare Informationen darüber, wie Daten gesammelt, verwendet, geteilt und geschützt werden. Transparenz ist essenziell, um das Vertrauen der Nutzer und anderer Unternehmen zu gewinnen und zu erhalten. Dies beinhaltet auch die Offenlegung von Algorithmen oder KI-Systemen, die zur Datenverarbeitung verwendet werden, sofern dies relevant ist.

    Nichtdiskriminierung

    Der EU Data Act verbietet diskriminierende Praktiken bei der Datenzugänglichkeit und -nutzung. Unternehmen müssen sicherstellen, dass sie keinen Marktteilnehmer ungerechtfertigt benachteiligen oder bevorzugen. Diese Pflicht zielt darauf ab, einen fairen und offenen Wettbewerb zu fördern, indem gleiche Bedingungen für alle Akteure garantiert werden. Dies ist besonders wichtig in Märkten, die von wenigen großen Playern dominiert werden, um Monopolstellungen und den Missbrauch von Marktmacht zu verhindern.

    Interoperabilität und Standards

    Um die nahtlose Datenteilung und -nutzung innerhalb der EU und darüber hinaus zu fördern, müssen Unternehmen sicherstellen, dass ihre Daten und Systeme interoperabel sind. Dies beinhaltet die Einhaltung von Standards und die Verwendung offener Schnittstellen, um die Kompatibilität zwischen verschiedenen Diensten und Plattformen zu gewährleisten. Interoperabilität ist entscheidend, um Daten-Silos zu vermeiden und die Grundlage für innovative Anwendungen und Dienstleistungen zu schaffen.

    Datenschutz und Datensicherheit

    In Übereinstimmung mit der Datenschutz-Grundverordnung (DSGVO) und anderen relevanten Gesetzen sind Unternehmen verpflichtet, die Privatsphäre der Nutzer zu respektieren und personenbezogene Daten zu schützen. Dies umfasst die Implementierung von Maßnahmen zur Gewährleistung der Datensicherheit, wie Verschlüsselung und Zugangskontrollen, sowie die Durchführung von Datenschutz-Folgenabschätzungen für Verarbeitungstätigkeiten, die ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen darstellen könnten.

    Meldung von Sicherheitsvorfällen

    Unternehmen müssen Sicherheitsvorfälle, die personenbezogene Daten oder die Integrität von Datenverarbeitungssystemen betreffen, umgehend melden. Dies gewährleistet eine schnelle Reaktion auf Sicherheitsbedrohungen und minimiert potenzielle Schäden für Nutzer und die Öffentlichkeit. Die Meldepflichten sind ein zentrales Element der Strategie der EU, um das Vertrauen in digitale Dienste zu stärken und die Resilienz des digitalen Ökosystems zu erhöhen.

    Auswirkungen und Umsetzung

    Die Umsetzung des EU Data Acts erfordert von Unternehmen eine sorgfältige Bewertung ihrer aktuellen Datenpraktiken und möglicherweise umfangreiche Anpassungen, um die Konformität sicherzustellen. Dies kann Investitionen in neue Technologien, Schulungen für Mitarbeiter und die Entwicklung neuer Datenmanagementstrategien umfassen.

    Fazit

    Der EU Data Act stellt eine signifikante Entwicklung in der Regulierung des digitalen Raums dar, die erhebliche Auswirkungen auf Unternehmen hat. Während der Act neue Möglichkeiten eröffnet, indem er den Zugang zu und die Nutzung von Daten erleichtert, bringt er auch eine Reihe von Pflichten mit sich, die Unternehmen erfüllen müssen. Um in diesem neuen regulatorischen Umfeld erfolgreich zu sein, müssen Unternehmen proaktiv handeln, um ihre Datenpraktiken an die Anforderungen des Data Acts anzupassen.

  • Fahrzeugdaten – EU Data Act

    Fahrzeugdaten – EU Data Act

    Besonders für die Automobilindustrie stellt der Data Act einen Wendepunkt dar, da Fahrzeuge zunehmend zu Datenquellen werden, die wertvolle Informationen für verschiedene Stakeholder liefern können.

    Der EU Data Act ist eine legislative Initiative, die darauf abzielt, ein ausgewogenes Ökosystem für die Generierung, den Zugang und die Nutzung digitaler Daten innerhalb der Europäischen Union zu schaffen. Besonders für die Automobilindustrie stellt der Data Act einen Wendepunkt dar, da Fahrzeuge zunehmend zu Datenquellen werden, die wertvolle Informationen für verschiedene Stakeholder liefern können. Der Zugang zu Fahrzeugdaten spielt dabei eine zentrale Rolle und wirft Fragen bezüglich Datenschutz, Wettbewerbsfähigkeit, Innovation und Verbraucherschutz auf.

    Zugang zu Fahrzeugdaten unter dem EU Data Act

    Der EU Data Act zielt darauf ab, fairen Zugang zu den im Fahrzeug generierten Daten zu gewährleisten. Fahrzeuge sammeln eine Vielzahl von Daten, darunter technische Informationen zum Fahrzeugzustand, Daten über das Fahrverhalten und Umgebungsdaten. Diese Daten können für Wartungszwecke, zur Verbesserung der Verkehrssicherheit, für personalisierte Versicherungstarife oder für neue Mobilitätsdienste genutzt werden.

    Herausforderungen

    • Dateneigentum und -kontrolle: Eine der größten Herausforderungen ist die Frage, wem die im Fahrzeug generierten Daten gehören und wer sie kontrollieren sollte. Der Data Act versucht, eine Balance zwischen den Interessen der Fahrzeughersteller, Fahrzeugbesitzern und Drittanbietern zu finden.
    • Datenschutz: Der Schutz persönlicher Daten ist von zentraler Bedeutung. Der Data Act muss im Einklang mit der Datenschutz-Grundverordnung (DSGVO) stehen, um sicherzustellen, dass die Privatsphäre der Nutzer gewahrt bleibt.
    • Sicherheit: Die Sicherheit der Fahrzeugdaten und der Kommunikationsschnittstellen ist essentiell, um Manipulationen und unbefugten Zugriff zu verhindern.

    Die Einführung des EU Data Acts bringt für die Automobilindustrie spezifische Herausforderungen mit sich, insbesondere in Bezug auf den Zugang zu und die Nutzung von Fahrzeugdaten. Diese Herausforderungen erstrecken sich über technische, rechtliche und ethische Bereiche und erfordern sorgfältige Überlegungen und Lösungen.

    1. Dateneigentum und -kontrolle

    Die Frage des Dateneigentums und der Kontrolle ist zentral für die Debatte um den Zugang zu Fahrzeugdaten. Fahrzeuge generieren große Mengen an Daten, aber es ist komplex zu bestimmen, wem diese Daten „gehören“. Sollen die Daten dem Fahrzeughersteller, dem Fahrzeugbesitzer oder den Nutzern des Fahrzeugs zugeschrieben werden? Diese Frage berührt grundlegende Aspekte des Datenschutzes und der kommerziellen Nutzung von Daten.

    • Hersteller vs. Drittanbieter: Fahrzeughersteller argumentieren oft, dass die von ihren Fahrzeugen generierten Daten geschützte Betriebsgeheimnisse sind. Drittanbieter von Dienstleistungen, wie unabhängige Reparaturwerkstätten, Versicherungen und Mobilitätsdienste, fordern hingegen einen offenen Zugang zu diesen Daten, um faire Wettbewerbsbedingungen zu schaffen und innovative Dienstleistungen anbieten zu können.
    • Fahrzeugbesitzer und Datenschutz: Fahrzeugbesitzer haben ein berechtigtes Interesse an der Kontrolle über ihre Daten, insbesondere wenn diese personenbezogene Informationen enthalten. Der Schutz dieser Daten und die Gewährleistung, dass die Besitzer ihre Zustimmung zu deren Nutzung geben, sind wesentlich.

    2. Datenschutz

    Der Datenschutz ist eine weitere wesentliche Herausforderung. Fahrzeugdaten können sensible Informationen über das Verhalten und die Vorlieben der Nutzer enthalten. Der Umgang mit diesen Daten muss im Einklang mit der Datenschutz-Grundverordnung (DSGVO) stehen und die Privatsphäre der Individuen schützen.

    • Einwilligung und Transparenz: Die Einholung einer klaren und informierten Einwilligung der Nutzer für die Datensammlung und -verarbeitung ist entscheidend. Nutzer müssen verstehen, welche Daten gesammelt werden, wie diese verwendet werden und welche Kontrolle sie darüber haben.
    • Anonymisierung und Pseudonymisierung: Techniken zur Anonymisierung und Pseudonymisierung von Daten können dazu beitragen, die Privatsphäre der Nutzer zu schützen, während gleichzeitig wertvolle Daten für Analysen und Dienstleistungen genutzt werden können.

    3. Sicherheit

    Die Sicherheit der Fahrzeugdaten und der Systeme, die diese Daten sammeln, übertragen und verarbeiten, ist von größter Bedeutung. Mit der zunehmenden Vernetzung von Fahrzeugen steigt auch das Risiko von Cyberangriffen.

    • Schutz vor unbefugtem Zugriff: Es müssen robuste Sicherheitsmaßnahmen implementiert werden, um zu verhindern, dass Hacker Zugang zu Fahrzeugdaten und -systemen erhalten. Dies umfasst sowohl physische als auch digitale Schutzmechanismen.
    • Integrität der Daten: Die Sicherstellung der Integrität der Fahrzeugdaten ist entscheidend, um Manipulationen zu verhindern und das Vertrauen der Nutzer zu gewährleisten.

    4. Interoperabilität und Standards

    Die Schaffung von Interoperabilität und die Etablierung von Standards sind wesentlich, um eine effiziente Nutzung und Teilung von Daten zu ermöglichen. Ohne gemeinsame Standards könnten Daten in inkompatiblen Formaten vorliegen, was ihre Nutzung erschwert.

    • Technische Kompatibilität: Die Entwicklung und Einhaltung von Industriestandards für Datenformate und Schnittstellen fördert die Kompatibilität und ermöglicht eine breitere Nutzung der Daten.
    • Regulatorische Harmonisierung: Die Harmonisierung von Regulierungen auf EU-Ebene und darüber hinaus ist notwendig, um einen reibungslosen grenzüberschreitenden Datenfluss zu ermöglichen und fragmentierte Märkte zu vermeiden.

    Die Bewältigung dieser Herausforderungen erfordert eine koordinierte Anstrengung von Herstellern, Dienstanbietern, Regulierungsbehörden und Verbrauchern. Der EU Data Act stellt einen wichtigen Schritt in diese Richtung dar, indem er einen rechtlichen Rahmen für den Zugang zu und die Nutzung von Daten schafft, der Fairness, Sicherheit und Innovation fördert.

    Lösungsansätze

    • Faire und nichtdiskriminierende Zugangsregeln: Der Data Act schlägt vor, Mechanismen zu etablieren, die einen gerechten und transparenten Zugang zu Fahrzeugdaten ermöglichen. Dies soll sowohl die Innovation fördern als auch die Wettbewerbsfähigkeit steigern, indem Drittanbieter Zugang zu den benötigten Daten erhalten.
    • Benutzerfreundliche Datenteilung: Fahrzeugbesitzer sollen die Kontrolle über ihre Daten haben und diese einfach und sicher mit Dritten teilen können. Dazu gehört auch die Möglichkeit, auszuwählen, welche Daten geteilt werden und unter welchen Bedingungen.
    • Interoperabilität: Um die Nutzung der Fahrzeugdaten zu erleichtern, sollen Standards für die Interoperabilität und Datenformate gefördert werden. Dies ermöglicht eine effizientere Nutzung der Daten über verschiedene Plattformen und Dienste hinweg.

    Auswirkungen auf die Automobilindustrie

    Für die Automobilindustrie bedeutet der EU Data Act eine signifikante Veränderung in der Art und Weise, wie Daten gehandhabt und geteilt werden. Hersteller müssen ihre Systeme und Prozesse anpassen, um den neuen Anforderungen gerecht zu werden. Dies bietet jedoch auch die Chance, neue Geschäftsmodelle und Dienstleistungen zu entwickeln, die auf der Nutzung der Fahrzeugdaten basieren.

    Zusammenfassend bildet der EU Data Act eine rechtliche Grundlage, die den Zugang zu und die Nutzung von Fahrzeugdaten regelt. Durch die Schaffung eines fairen, transparenten und sicheren Rahmens für die Datenteilung hat der Act das Potenzial, Innovationen in der Automobilindustrie voranzutreiben, den Wettbewerb zu fördern und die Rechte und den Schutz der Verbraucher zu stärken.

    Beratung und Umsetzung des KI EU Data Act

  • Das KI-Gesetz der EU – Fragen und Antworten

    Das KI-Gesetz der EU – Fragen und Antworten

    Warum muss die Verwendung künstlicher Intelligenz reguliert werden?

    Der potenzielle Nutzen der künstlichen Intelligenz (KI) für unsere Gesellschaften ist vielfältig und reicht von einer besseren medizinischen Versorgung bis hin zu besserer Bildung. Angesichts der raschen technologischen Entwicklung der KI hat die EU beschlossen, jetzt gemeinsam zu handeln, um diese Chancen zu ergreifen.

    Das KI-Gesetz der EU ist die weltweit erste umfassende gesetzliche Regelung für KI. Ziel ist es, die Risiken für die Gesundheit, die Sicherheit und die Grundrechte zu mindern. Die Vorschriften schützen auch die Demokratie, die Rechtsstaatlichkeit und die Umwelt.

    Von den meisten KI-Systemen geht nur ein geringes oder gar kein Risiko aus. Mit einigen KI-Systemen gehen jedoch Risiken einher, die jetzt angegangen werden müssen, damit es nicht zu unerwünschten Ergebnissen kommt.

    So kann beispielsweise die Undurchsichtigkeit vieler Algorithmen zu Unsicherheiten führen und eine wirksame Durchsetzung der bestehenden Rechtsvorschriften im Bereich der Sicherheit und der Grundrechte behindern. Zur Bewältigung dieser Herausforderungen waren gesetzgeberische Maßnahmen nötig geworden, um einen gut funktionierenden Binnenmarkt für KI-Systeme zu ermöglichen, der sowohl die Vorteile als auch die Risiken angemessen berücksichtigt.

    Gefahren lauern vor allem bei Anwendungen wie biometrischen Identifizierungssystemen oder KI-gestützten Entscheidungen, die wichtige persönliche Interessen berühren, z. B. in den Bereichen Personaleinstellung, Bildung und Erziehung, Gesundheitsversorgung oder Strafverfolgung.

    Dank der jüngsten Fortschritte in der KI-Entwicklung ist gerade auch die generative KI immer leistungsfähiger geworden. Sogenannte „KI-Modelle mit allgemeinem Verwendungszweck“, die in zahlreiche KI-Systeme integriert sind, werden so wichtig für unsere Wirtschaft und Gesellschaft, dass sich nicht unreguliert gelassen werden können. In Anbetracht der potenziellen systemischen Risiken führt die EU daher wirksame Vorschriften und eine wirksame Beaufsichtigung ein.

    Welche Risiken sollen mit den neuen KI-Vorschriften angegangen werden?

    Die Einführung von KI-Systemen verspricht große gesellschaftliche Vorteile, mehr Wirtschaftswachstum und Innovation und eine gesteigerte weltweite Wettbewerbsfähigkeit der EU. In bestimmten Fällen können jedoch die besonderen Merkmale bestimmter KI-Systeme neue Risiken in Bezug auf die Sicherheit der Nutzer und die Wahrung der Grundrechte mit sich bringen. Einige leistungsstarke und weitverbreitete KI-Modelle könnten sogar systemische Risiken bergen.

    Dies führt zu Rechtsunsicherheit für Unternehmen und – mangels Vertrauen – zu einer möglicherweise langsameren Verwendung von KI-Technik durch Unternehmen und Bürger. Unterschiedliche Regulierungsmaßnahmen nationaler Behörden könnten zu einer Fragmentierung des Binnenmarkts führen.

    Für wen wird das KI-Gesetz gelten?

    Der Rechtsrahmen wird sowohl für öffentliche als auch für private Akteure innerhalb und außerhalb der EU gelten, sofern das KI-System in der Union in Verkehr gebracht wird oder Menschen in der EU von seiner Verwendung betroffen sind.

    Es erfasst sowohl Anbieter (z. B. Entwickler eines Auswertungsprogramms für Lebensläufe) als auch Entwickler von KI-Systemen mit hohem Risiko (z. B. eine Bank, die dieses Auswertungsprogramm anschafft). Die Importeure von KI-Systemen müssen zudem sicherstellen, dass der ausländische Anbieter bereits das entsprechende Konformitätsbewertungsverfahren durchgeführt hat, das Produkt mit einer europäischen Konformitätskennzeichnung (CE) versehen ist und die erforderlichen Unterlagen und Gebrauchsanweisungen beigefügt sind.

    Darüber hinaus sind für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck (zu denen auch große generative KI-Modelle gehören) bestimmte Verpflichtungen vorgesehen.

    Anbieter kostenloser und quelloffener KI-Modelle sind von den meisten dieser Verpflichtungen aber befreit. Diese Ausnahme gilt jedoch nicht für die Verpflichtungen der Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, die systemische Risiken bergen.

    Die Verpflichtungen gelten auch nicht für Tätigkeiten der Forschung, Entwicklung und Prototypentwicklung, die der Markteinführung vorausgehen. Überdies gelten die Vorschriften nicht für KI-Systeme, die ausschließlich den Zwecken des Militärs, der Verteidigung oder der nationalen Sicherheit dienen, unabhängig von der Art der Einrichtung, die solche Tätigkeiten durchführt.

    Welche Risikoeinstufungen gibt es?

    Die Kommission schlägt einen risikobasierten Ansatz mit vier Risikostufen für KI-Systeme sowie die Ermittlung spezifischer Risiken für KI-Modelle mit allgemeinem Verwendungszweck vor:

    • Minimales Risiko: Alle anderen KI-Systeme können unter Einhaltung des allgemein geltenden Rechts entwickelt und verwendet werden, d. h. ohne Beachtung zusätzlicher rechtlicher Verpflichtungen. Die große Mehrheit der KI-Systeme, die derzeit oder wahrscheinlich künftig in der EU verwendet werden, fällt in diese Kategorie. Anbieter solcher Systeme können freiwillig die Anforderungen an vertrauenswürdige KI anwenden und freiwillige Verhaltenskodizes einhalten.
    • Hohes Risiko: Eine begrenzte Zahl von KI-Systemen, die im Vorschlag definiert werden und sich potenziell nachteilig auf die Sicherheit der Menschen oder ihre (durch die Charta der Grundrechte der Europäischen Union geschützten) Grundrechte auswirken, gilt als mit einem hohen Risiko behaftet. Dem KI-Gesetz beigefügt ist die Liste der KI-Systeme mit hohem Risiko. Diese Liste kann überarbeitet werden, um sie an die Entwicklung der KI-Anwendungsfälle anzupassen.
    • Zu solchen Systemen gehören auch Sicherheitskomponenten von Produkten, die unter sektorale Rechtsvorschriften der Union fallen. Es wird stets davon ausgegangen, dass von ihnen ein hohes Risiko ausgeht, wenn sie gemäß diesen sektoralen Rechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden müssen.
    • Unannehmbares Risiko: Eine sehr begrenzte Zahl besonders schädlicher KI-Anwendungen, die gegen die EU-Werte verstoßen, weil sie Grundrechte verletzen, wird ganz verboten:
      • Bewertung des sozialen Verhaltens (Social Scoring) für öffentliche und private Zwecke;
      • Ausnutzung der Schutzbedürftigkeit von Personen, Einsatz von Techniken zur unterschwelligen Beeinflussung;
      • biometrische Echtzeit-Fernidentifizierung im öffentlich zugänglichen Raum durch Strafverfolgungsbehörden mit eng abgesteckten Ausnahmen (siehe unten);
      • biometrische Kategorisierung natürlicher Personen aufgrund biometrischer Daten, um daraus die ethnische Herkunft, politische Auffassungen, die Zugehörigkeit zu einer Gewerkschaft, religiöse oder weltanschauliche Überzeugungen oder die sexuelle Orientierung abzuleiten. Das Filtern von Datensätzen anhand biometrischer Daten im Bereich der Strafverfolgung wird weiterhin möglich sein;
      • individuelle vorausschauende polizeiliche Überwachung;
      • Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen, außer zu medizinischen oder sicherheitstechnischen Zwecken (z. B. Überwachung der Müdigkeit eines Piloten);
      • ungezielte Auswertung von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen, um Datenbanken aufzubauen oder zu erweitern.
    • Besondere Transparenzverpflichtungen: Für bestimmte KI-Systeme werden besondere Transparenzverpflichtungen auferlegt, z. B. wenn eine klare Manipulationsgefahr besteht (z. B. durch den Einsatz von Chatbots). Den Nutzern sollte bewusst sein, dass sie es mit einer Maschine zu tun haben. 

    Außerdem wird im KI-Gesetz auf systemische Risiken eingegangen, die sich aus KI-Modellen mit allgemeinem Verwendungszweck ergeben können, zu denen auch große generative KI-Modelle gehören. Solche Modelle können für vielfältige Aufgaben eingesetzt werden und bilden die Grundlage für viele KI-Systeme in der EU. Einige davon könnten systemische Risiken bergen, wenn sie sich als besonders leistungsfähig erweisen oder eine weite Verbreitung finden. Solche leistungsfähigen Modelle könnten beispielsweise schwere Unfälle verursachen oder für weitreichende Cyberangriffe missbraucht werden. Auch wenn ein Modell schädliche Verzerrungen hervorbringt, die in zahlreichen Anwendungen zum Tragen kommen, wären davon viele Menschen betroffen.  

    Wie erfahre ich, ob ein KI-System mit hohem Risiko behaftet ist?

    Zusammen mit einer eindeutigen Bestimmung des Begriffs „hohes Risiko“ gibt das KI-Gesetz eine solide Methodik vor, die hilft, KI-Systeme mit hohem Risiko im Sinne des Rechtsrahmens zu ermitteln. Dadurch soll Rechtssicherheit für Unternehmen und andere Akteure geschaffen werden.

    Die Risikoeinstufung beruht auf der Zweckbestimmung des KI-Systems entsprechend den bestehenden EU-Produktsicherheitsvorschriften. Dies bedeutet, dass die Einstufung des Risikos von der Funktion des KI-Systems, von seinem konkreten Zweck und seinen Anwendungsmodalitäten abhängt.

    Die Anhänge des KI-Gesetzes enthalten eine Liste von Anwendungsfällen, bei denen von einem hohen Risiko ausgegangen wird. Die Kommission wird für die Aktualisierung und die Relevanz dieses Verzeichnisses sorgen. Systeme, die zwar auf der Hochrisiko-Liste stehen, jedoch nur eng begrenzte Verfahrensschritte durchführen, das Ergebnis vorheriger menschlicher Tätigkeiten verbessern, keine menschlichen Entscheidungen beeinflussen und rein vorbereitende Aufgaben erfüllen, werden dagegen nicht als hochriskant angesehen. Ein KI-System, das Profile natürlicher Personen erstellt (Profiling) gilt jedoch immer als hochriskant.

    Welche Pflichten haben Anbieter von KI-Systemen mit hohem Risiko?

    Bevor Hochrisiko-KI-Systeme in der EU in Verkehr gebracht oder anderweitig in Betrieb genommen werden dürfen, müssen die Anbieter ihr System einer Konformitätsbewertung unterziehen. Damit können sie nachweisen, dass ihr System den verbindlichen Anforderungen an vertrauenswürdige KI entspricht (z. B. in Bezug auf Datenqualität, Dokumentation und Rückverfolgbarkeit, Transparenz, menschliche Aufsicht, Genauigkeit, Cybersicherheit und Robustheit). Diese Bewertung muss erneut durchgeführt werden, wenn das System selbst oder sein Zweck wesentlich verändert wird.

    Bei KI-Systemen, die Sicherheitskomponenten von Produkten sind, die unter sektorale Rechtsvorschriften der EU fallen, wird stets davon ausgegangen, dass von ihnen ein hohes Risiko ausgeht, wenn sie gemäß diesen sektoralen Rechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden müssen. Ebenso ist bei biometrischen Systemen stets eine Konformitätsbewertung durch Dritte erforderlich.

    Außerdem müssen Anbieter von Hochrisiko-KI-Systemen Qualitäts- und Risikomanagementsysteme einführen, um die Einhaltung der neuen Anforderungen sicherzustellen und die Risiken für Nutzer und betroffene Personen zu minimieren, auch nachdem ein Produkt bereits in Verkehr gebracht wurde.

    Hochrisiko-KI-Systeme, die von Behörden oder im behördlichen Auftrag eingesetzt werden, müssen in einer öffentlichen EU-Datenbank registriert werden, sofern sie nicht zu Zwecken der Strafverfolgung und im Bereich der Migration verwendet werden. Letztere müssen in einem nicht öffentlichen Teil der Datenbank registriert werden, auf den nur die zuständigen Aufsichtsbehörden zugreifen können.

    Zur Überwachung nach dem Inverkehrbringen werden die Marktüberwachungsbehörden Audits durchführen und den Anbietern die Möglichkeit bieten, schwerwiegende Vorfälle oder Grundrechtsverstöße, von denen sie Kenntnis erlangen, zu melden. Die Marktüberwachungsbehörden haben die Möglichkeit, das Inverkehrbringen einer bestimmten Hoch-Risiko-Anwendung aus besonderen und außergewöhnlichen Gründen zu genehmigen.

    Bei Verstößen werden die nationalen Behörden aufgrund dieser Anforderungen Zugang zu den Informationen erhalten, die nötig sind, um festzustellen, ob der Einsatz des KI-Systems rechtmäßig erfolgt ist.

    Gibt es Beispiele für die in Anhang III genannten Anwendungsfälle mit hohem Risiko?

    • Bestimmte kritische Infrastrukturen, z. B. in Bereichen wie Straßenverkehr und Wasser-, Gas-, Wärme- und Stromversorgung;
    • allgemeine und berufliche Bildung, z. B. Bewertung von Lernergebnissen, Steuerung des Lernprozesses und Überwachung von Prüfungsbetrug;
    • Beschäftigung, Personalmanagement und Zugang zu selbstständiger Erwerbstätigkeit, z. B. Veröffentlichung gezielter Stellenanzeigen, Analyse und Filterung von Bewerbungen sowie Bewertung von Bewerbern;
    • Zugang zu wichtigen privaten und öffentlichen Dienstleistungen und zu Sozialleistungen (z. B. Gesundheitsversorgung), Bewertung der Kreditwürdigkeit natürlicher Personen sowie Risikobewertung und Preisfestsetzung im Zusammenhang mit Lebens- und Krankenversicherungen;
    • bestimmte Systeme, die in den Bereichen StrafverfolgungGrenzkontrolleJustizverwaltung und demokratische Prozesse eingesetzt werden;
    • Bewertung und Klassifizierung von Notrufen;
    • Systeme zur biometrischen Identifizierung, Kategorisierung und Emotionserkennung (außerhalb der verbotenen Kategorien).
    • Die Empfehlungssysteme sehr großer Online-Plattformen sind nicht enthalten, weil sie bereits von anderen Rechtsvorschriften (Gesetz über digitale Dienste, Gesetz über digitale Märkte) erfasst werden.

    Wie erfolgt die Regulierung von KI-Modellen mit allgemeinem Verwendungszweck?

    KI-Modelle mit allgemeinem Verwendungszweck, zu denen auch große generative KI-Modelle gehören, können für vielfältige Aufgaben eingesetzt werden. Dabei können einzelne Modelle in eine große Zahl von KI-Systemen integriert werden.

    Es ist wichtig, dass ein Anbieter, der auf einem KI-Modell mit allgemeinem Verwendungszweck aufbauen möchte, über alle Informationen verfügt, die er benötigt, um sicherzustellen, dass sein System sicher ist und dem KI-Gesetz entspricht.

    Deshalb sind die Anbieter solcher Modelle nach dem KI-Gesetz verpflichtet, bestimmte Informationen gegenüber nachgelagerten Systemanbietern offenzulegen. Diese Transparenz ermöglicht ein besseres Verständnis dieser Modelle.

    Außerdem müssen die Modellanbieter über Strategien verfügen, mit denen sie sicherstellen, dass beim Trainieren ihrer Modelle das Urheberrecht eingehalten wird.

    Einige dieser Modelle könnten zudem systemische Risiken bergen, weil sie besonders leistungsfähig oder weitverbreitet sind.

    Derzeit wird davon ausgegangen, dass KI-Modelle mit allgemeinem Verwendungszweck, die mit einer Gesamtrechenleistung von mehr als 10^25 FLOPs trainiert wurden, systemische Risiken bergen, weil solche mit größerer Rechenleistung trainierte Modelle tendenziell auch leistungsfähiger sind. Das Amt für künstliche Intelligenz (KI-Amt, das bei der Kommission angesiedelt wird) kann diesen Schwellenwert an den technischen Fortschritt anpassen und in bestimmten Fällen auch andere Modelle anhand weiterer Kriterien (z. B. Anzahl der Nutzer oder Grad der Autonomie des Modells) als Modelle mit systemischen Risiken benennen.

    Anbieter von Modellen mit systemischen Risiken sind daher verpflichtet, die Risiken zu bewerten und zu mindernschwerwiegende Vorfälle zu meldenTests und Modellbewertungen nach dem neuesten Stand der Technik durchzuführen, die Cybersicherheit zu gewährleisten und Angaben zum Energieverbrauch ihrer Modelle zu machen.

    Dazu sollen sie mit dem Europäischen Amt für künstliche Intelligenz zusammenzuarbeiten, um gemeinsam mit anderen Experten Verhaltenskodizes aufzustellen, die das zentrale Instrument zur Festlegung detaillierter Regeln sein werden. Ein wissenschaftliches Gremium wird eine zentrale Rolle bei der Beaufsichtigung von KI-Modellen mit allgemeinem Verwendungszweck spielen.

    Warum ist 10^25 FLOPs ein angemessener Schwellenwert für KI-Modelle mit allgemeinem Verwendungszweck (General-Purpose AI, GPAI), die systemische Risiken bergen?

    Dieser Schwellenwert erfasst die derzeit fortschrittlichsten GPAI-Modelle, nämlich GPT-4 von OpenAI und wahrscheinlich auch Gemini von Google DeepMind.

    Die Fähigkeiten der Modelle oberhalb dieses Schwellenwerts werden noch nicht ausreichend verstanden. Da sie systemische Risiken mit sich bringen könnten, erscheint es angemessen, ihre Anbieter den zusätzlichen Verpflichtungen zu unterwerfen.

    Der FLOP-Wert ist ein erster Näherungswert für die Fähigkeiten der Modelle, und der genaue FLOP-Schwellenwert kann vom Europäischen Amt für künstliche Intelligenz nach oben oder unten angepasst werden, z. B. im Lichte der Fortschritte bei der objektiven Messung der Modellfähigkeiten und der Entwicklung der Rechenleistung, die für ein bestimmtes Leistungsniveau benötigt wird.

    Das KI-Gesetz kann (durch einen delegierten Rechtsakt) geändert werden, um den FLOP-Schwellenwert zu aktualisieren.

    Ist das KI-Gesetz zukunftstauglich?

    Mit der Verordnung werden unterschiedliche Risikostufen eingeführt und klare Definitionen festgelegt, die auch für KI mit allgemeinem Verwendungszweck gelten.

    In den Vorschriften werden ergebnisorientierte Anforderungen an Hochrisiko-KI-Systeme festgelegt. Die konkreten technischen Lösungen und die betriebliche Umsetzung sollen jedoch in erster Linie in von der Branche aufgestellten Standards geregelt werden, damit der Rechtsrahmen flexibel bleibt und an verschiedene Anwendungsfälle angepasst werden kann und damit neue technologische Lösungen entwickelt werden können.

    Darüber hinaus kann das KI-Gesetz durch delegierte Rechtsakte und Durchführungsrechtsakte geändert werden, z. B. zur Anpassung des FLOP-Schwellenwerts (delegierter Rechtsakt), zur Aufnahme von Kriterien für die Einstufung von GPAI-Modellen als KI mit systemischen Risiken (delegierter Rechtsakt) und zur Änderung der Modalitäten für die Einrichtung von Reallaboren und die Festlegung von Elementen des Plans für einen Test unter realen Bedingungen (Durchführungsrechtsakt).

    Wie regelt das KI-Gesetz die biometrische Identifizierung?

    Die Verwendung biometrischer Echtzeit-Fernidentifizierung im öffentlich zugänglichen Raum (d. h. Gesichtserkennung mit Überwachungsaufnahmen) zu Strafverfolgungszwecken wird verboten, außer in folgenden Fällen:

    • Strafverfolgungsmaßnahmen im Zusammenhang mit 16 festgelegten Straftaten,
    • gezielte Suche nach bestimmten Opfern und bei Entführungen, Menschenhandel und sexueller Ausbeutung von Menschen, Suche nach vermissten Personen, oder
    • Abwehr einer Gefahr für das Leben oder die körperliche Unversehrtheit von Personen oder Abwendung eines gegenwärtig oder vorhersehbar drohenden Terroranschlags.

    Auf der Liste der 16 Straftaten stehen:

    • Terrorismus,
    • Menschenhandel,
    • sexuelle Ausbeutung von Kindern und Verbreitung von Material über sexuellen Kindesmissbrauch,
    • illegaler Handel mit Drogen und psychotropen Stoffen,
    • illegaler Handel mit Waffen, Munition und Sprengstoffen,
    • Mord,
    • schwere Körperverletzung,
    • illegaler Handel mit menschlichen Organen und menschlichem Gewebe,
    • illegaler Handel mit nuklearen oder radioaktiven Substanzen,
    • Entführung, Freiheitsberaubung und Geiselnahme,
    • Verbrechen, die in die Zuständigkeit des Internationalen Strafgerichtshofs fallen,
    • Flugzeug-/Schiffsentführung,
    • Vergewaltigung,
    • Umweltkriminalität,
    • organisierter oder bewaffneter Raub,
    • Sabotage, Mitgliedschaft in einer kriminellen Vereinigung, die an einer oder mehreren der oben aufgeführten Straftaten beteiligt ist.

    Die biometrische Echtzeit-Fernidentifizierung durch Strafverfolgungsbehörden bedarf der vorherigen Genehmigung durch eine Justiz- oder unabhängige Verwaltungsbehörde, deren Entscheidung bindend ist. In dringenden Fällen kann die Genehmigung innerhalb von 24 Stunden nachgeholt werden; wird die Genehmigung verweigert, müssen alle Daten und Ergebnisse gelöscht werden.

    Es muss eine vorherige Folgenabschätzung in Bezug auf die Grundrechte durchgeführt und der zuständigen Marktüberwachungsbehörde und der Datenschutzbehörde gemeldet werden. Bei großer Dringlichkeit kann mit der Nutzung des Systems ohne die Registrierung begonnen werden.

    Für den Einsatz von KI-Systemen zur nachträglichen biometrischen Fernidentifizierung (in zuvor gesammeltem Videomaterial) von Personen, gegen die ermittelt wird, ist die vorherige Genehmigung einer Justizbehörde oder einer unabhängigen Verwaltungsbehörde und die Meldung bei der Datenschutz- und Marktüberwachungsbehörde erforderlich.

    Warum sind für die biometrische Fernidentifizierung besondere Vorschriften erforderlich? 

    Die biometrische Identifizierung kann in verschiedenen Formen erfolgen. Sie kann zur Benutzerauthentifizierung verwendet werden, etwa zur Entsperrung eines Smartphones oder zur Verifizierung (Authentifizierung) bei Grenzübertritten, um die Identität einer Person anhand ihrer Reisedokumente (One-to-one-Matching) zu kontrollieren.

    Biometrische Identifizierung könnte auch aus der Ferne verwendet werden, um Personen in einer Menschenmenge zu identifizieren, wobei z. B. ein Bild einer Person mit einer Datenbank abgeglichen wird (One-to-many-Matching).

    Aufgrund einer Vielzahl von Faktoren wie Kameraqualität, Licht, Entfernung, Datenbank, Algorithmus sowie ethnische Herkunft, Alter oder Geschlecht der Personen kann die Genauigkeit von Gesichtserkennungssystemen erheblich variieren. Gleiches gilt auch für die Erkennung von Gangart und Sprache sowie für andere biometrische Systeme. Bei hochmodernen Systemen werden die Falscherkennungsraten zwar ständig verringert.

    Doch selbst wenn eine Genauigkeit von 99 % im Allgemeinen recht gut klingen mag, stellt es ein erhebliches Risiko dar, wenn das Ergebnis dazu führt, dass eine unschuldige Person verdächtigt wird. Selbst eine Fehlerquote von 0,1 % ist viel, wenn es um Zehntausende Personen geht.

    Wie werden die Grundrechte durch die neuen Vorschriften geschützt?

    Wenngleich auf der Ebene der EU und der Mitgliedstaaten bereits ein starker Schutz der Grundrechte und gegen Diskriminierung besteht, stellen die Komplexität und Undurchsichtigkeit bestimmter KI-Anwendungen („Blackbox“) ein Problem dar.

    Ein auf den Menschen ausgerichteter Ansatz für KI bedeutet, dass KI-Anwendungen mit den Rechtsvorschriften zum Schutz der Grundrechte im Einklang stehen müssen. Die Anforderungen an Rechenschaftspflicht und Transparenz beim Einsatz von KI-Systemen mit hohem Risiko werden in Verbindung mit verbesserten Durchsetzungskapazitäten sicherstellen, dass die Einhaltung der Rechtsvorschriften bereits ab der Entwicklungsphase berücksichtigt wird.

    Bei Verstößen werden die nationalen Behörden aufgrund dieser Anforderungen Zugang zu den Informationen erhalten, die nötig sind, um festzustellen, ob der Einsatz von KI rechtmäßig erfolgt ist.

    Darüber hinaus schreibt das KI-Gesetz vor, dass KI-Betreiber, die Einrichtungen des öffentlichen Rechts sind, aber auch private Betreiber, die öffentliche Dienstleistungen erbringen, sowie Betreiber von Hochrisiko-KI-Systemen eine Folgenabschätzung in Bezug auf die Grundrechte durchführen müssen.

    Was ist eine Folgenabschätzung in Bezug auf die Grundrechte? Wer muss eine solche Folgenabschätzung durchführen, und wann?

    Der Einsatz eines Hochrisiko-KI-Systems kann Auswirkungen auf die Grundrechte haben. Deshalb müssen Betreiber, die Einrichtungen des öffentlichen Rechts sind, oder private Betreiber, die öffentliche Dienstleistungen erbringen, sowie Betreiber von Hochrisiko-KI-Systemen eine Folgenabschätzung in Bezug auf die Grundrechte durchführen und der nationalen Behörde die Ergebnisse mitteilen.

    Diese Folgenabschätzung beinhaltet eine Beschreibung der Prozesse des Betreibers, in denen das Hochrisiko-KI-System verwendet werden soll, Angaben zu Zeitraum und Häufigkeit der Verwendung des Hochrisiko-KI-Systems, die Kategorien natürlicher Personen und Gruppen, die von seiner Verwendung in dem konkreten Kontext wahrscheinlich betroffen sein werden, die besonderen Schadensrisiken für die betroffenen Personenkategorien oder Personengruppen sowie eine Beschreibung der Umsetzung von Maßnahmen der menschlichen Aufsicht und von Maßnahmen, die zu ergreifen sind, falls ein Gefahrenfall tatsächlich eintreten sollte.

    Wenn der Anbieter diese Verpflichtung bereits durch die Datenschutz-Folgenabschätzung erfüllt hat, wird die Folgenabschätzung in Bezug auf die Grundrechte in Verbindung mit dieser Datenschutz-Folgenabschätzung durchgeführt.

    Wie soll diese Verordnung darauf hinwirken, dass KI zu keinen Verzerrungen aufgrund der Rasse oder des Geschlechts führt?

    Es ist äußerst wichtig, dass KI-Systeme keine Voreingenommenheit schaffen und keine derartigen Verzerrungen reproduzieren. Wenn sie richtig konzipiert und eingesetzt werden, können KI-Systeme dazu beitragen, Verzerrungen der Wirklichkeit und bestehende strukturelle Diskriminierungen zu verringern, und somit zu gerechteren, diskriminierungsfreien Entscheidungen führen (z. B. bei Personaleinstellungen).

    Die neuen verbindlichen Anforderungen an alle KI-Systeme mit hohem Risiko dienen diesem Zweck. KI-Systeme müssen technisch robust sein und Garantien dafür bieten, dass die Technik ihren Zweck erfüllt und geschützte Gruppen (z. B. wegen Rasse oder ethnischer Herkunft, Geschlecht, Alter usw.) nicht unverhältnismäßig stark von falsch positiven oder falsch negativen Ergebnissen betroffen sind.

    KI-Systeme mit hohem Risiko werden zudem mit ausreichend repräsentativen Datensätzen zu trainieren und zu testen sein, um das Risiko, dass unfaire Verzerrungen schon im Modell selbst begründet sind, möglichst gering zu halten und um sicherzustellen, dass solchen Verzerrungen mit geeigneten Maßnahmen zur Erkennung, Korrektur und sonstigen Risikominderung begegnet werden kann.

    Darüber hinaus müssen sie rückverfolgbar und überprüfbar sein, und es müssen angemessene Unterlagen aufbewahrt werden, wozu auch die Daten gehören, mit denen der Algorithmus trainiert wurde, da diese für nachträgliche Untersuchungen unverzichtbar sind.

    Die Beaufsichtigung der Einhaltung der Anforderungen vor und nach dem Inverkehrbringen der KI-Systeme muss sicherstellen, dass solche Systeme regelmäßig überwacht werden und dass möglichen Risiken unverzüglich entgegengewirkt wird.

    Ab wann wird das KI-Gesetz uneingeschränkt anwendbar sein?

    Nach seiner Annahme durch das Europäische Parlament und den Rat wird das KI-Gesetz am zwanzigsten Tag nach seiner Veröffentlichung im Amtsblatt in Kraft treten. Es wird dann 24 Monate nach dem Inkrafttreten in vollem Umfang anwendbar sein, wobei das folgende abgestufte Verfahren gilt:

    • 6 Monate nach Inkrafttreten: Die Mitgliedstaaten schalten verbotene Systeme schrittweise ab;
    • 12 Monate: Die Verpflichtungen in Bezug auf KI mit allgemeinem Verwendungszweck werden anwendbar;
    • 24 Monate: Alle Vorschriften des KI-Gesetzes werden anwendbar, einschließlich der Verpflichtungen für Hochrisikosysteme, die in Anhang III (Liste der Anwendungsfälle mit hohem Risiko) festgelegt sind;
    • 36 Monate: Die Verpflichtungen für Hochrisikosysteme gemäß Anhang II (Liste der Harmonisierungsrechtsvorschriften der Union) werden anwendbar.

    Wie werden die Vorschriften des KI-Gesetzes durchgesetzt?

    Den Mitgliedstaaten kommt bei der Anwendung und Durchsetzung der Vorschriften eine Schlüsselrolle zu. Dazu sollte jeder Mitgliedstaat eine oder mehrere zuständige nationale Behörden benennen, die die Anwendung und Umsetzung beaufsichtigen und die Marktüberwachung wahrnehmen.

    Im Interesse der Effizienz sollte jeder Mitgliedstaat als offizielle Kontaktstelle für die Öffentlichkeit und für andere Stellen eine nationale Aufsichtsbehörde benennen, die das Land auch im Europäischen Ausschuss für künstliche Intelligenz vertritt.

    Zusätzliches technisches Fachwissen wird von einem Beratungsforum zur Verfügung gestellt, in dem eine ausgewogene Auswahl von Interessenträgern aus Industrie, Start-ups, KMU, Zivilgesellschaft und Hochschulen/Wissenschaft vertreten ist.

    Darüber hinaus wird die Kommission ein neues Europäisches KI-Büro innerhalb der Kommission einrichten, das KI-Modelle mit allgemeinem Verwendungszweck überwacht, mit dem Europäischen Ausschuss für künstliche Intelligenz zusammenarbeitet und dabei von einem wissenschaftlichen Gremium unabhängiger Sachverständiger unterstützt wird.

    Warum wird ein Europäischer Ausschuss für künstliche Intelligenz gebraucht, und was soll er tun?

    Der Europäische Ausschuss für künstliche Intelligenz besteht aus hochrangigen Vertretern der zuständigen nationalen Aufsichtsbehörden, des Europäischen Datenschutzbeauftragten und der Kommission. Er hat die Aufgabe, eine reibungslose, wirksame und einheitliche Umsetzung des neuen KI-Gesetzes zu erleichtern.

    Der Ausschuss wird der Kommission Empfehlungen und Stellungnahmen zu KI-Systemen mit hohem Risiko und zu anderen Aspekten vorlegen, die für eine wirksame und einheitliche Umsetzung der neuen Vorschriften von Bedeutung sind. Nicht zuletzt wird er auch Normungstätigkeiten in diesem Bereich unterstützen.

    Welche Aufgaben hat das Europäische Amt für künstliche Intelligenz?

    Das KI-Amt soll im Bereich der künstlichen Intelligenz Fachwissen und Fähigkeiten der Union entwickeln und einen Beitrag zu einer zentralisierten Struktur zur Umsetzung und Anwendung der Rechtsvorschriften der Union im Bereich der künstlichen Intelligenz leisten.

    Insbesondere soll das KI-Amt die neuen Vorschriften für KI-Modelle mit allgemeinem Verwendungszweck durchsetzen und ihre Anwendung überwachen. Neben der Aufstellung von Verhaltenskodizes zur Präzisierung des Regelwerks gehört dazu auch seine Rolle bei der Klassifizierung von Modellen mit systemischen Risiken und bei der Überwachung der wirksamen Umsetzung und Einhaltung der Vorschriften. Letzteres wird durch die Befugnis erleichtert, Unterlagen anzufordern, Modellbewertungen durchzuführen, Warnmeldungen zu untersuchen und von den Anbietern Korrekturmaßnahmen zu verlangen.

    Das KI-Amt sorgt für die Koordinierung der Politik im Bereich der künstlichen Intelligenz und die Zusammenarbeit zwischen den beteiligten Organen, Einrichtungen und sonstigen Stellen der Union sowie mit Sachverständigen und Interessenträgern. Insbesondere wird es enge Verbindungen zur Wissenschaft pflegen, um die Durchsetzung zu unterstützen, als internationale Bezugsstelle für unabhängige Sachverständige und Expertenorganisationen dienen und den Austausch und die Zusammenarbeit mit ähnlichen Einrichtungen auf der ganzen Welt erleichtern.

    Was ist der Unterschied zwischen dem KI-Ausschuss, dem KI-Büro, dem Beratungsforum und dem wissenschaftlichen Gremium unabhängiger Sachverständiger?

    Der KI-Ausschuss hat erweiterte Aufgaben in Bezug auf die Beratung und Unterstützung der Kommission und der Mitgliedstaaten.

    Das KI-Amt wird innerhalb der Kommission eingerichtet und soll Fachwissen und Fähigkeiten der Union im Bereich der künstlichen Intelligenz entwickeln und zur Umsetzung und Anwendung der Rechtsvorschriften der Union im Bereich der künstlichen Intelligenz beitragen. Insbesondere soll das KI-Amt die neuen Vorschriften für KI-Modelle mit allgemeinem Verwendungszweck durchsetzen und ihre Anwendung überwachen.

    Das Beratungsforum wird aus einer ausgewogenen Auswahl von Interessenträgern aus Industrie, Start-ups, KMU, Zivilgesellschaft und Hochschulen/Wissenschaft bestehen. Es wird eingerichtet, um den Ausschuss und die Kommission zu beraten und ihnen technisches Fachwissen zur Verfügung zu stellen. Seine Mitglieder werden vom Ausschuss aus den Reihen der Interessenträger ernannt.

    Das wissenschaftliche Gremium unabhängiger Sachverständiger unterstützt die Umsetzung und Durchsetzung der Verordnung in Bezug auf Modelle und Systeme mit allgemeinem Verwendungszweck. Die Mitgliedstaaten werden ebenfalls auf diesen Expertenpool zurückgreifen können.

    Welche Sanktionen sind bei Verstößen vorgesehen?

    Für den Fall, dass KI-Systeme in Verkehr gebracht oder in Betrieb genommen werden, die den Anforderungen der Verordnung nicht genügen, müssen die Mitgliedstaaten wirksame, verhältnismäßige und abschreckende Sanktionen, einschließlich Geldbußen, festlegen und diese der Kommission mitteilen.

    Dafür werden in der Verordnung bestimmte Schwellenwerte festgelegt:

    • bis zu 35 Mio. EUR oder 7 % des gesamten weltweiten Vorjahresumsatzes (je nachdem, welcher Wert höher ist) bei Verstößen durch verbotene Praktiken oder Verletzungen von Datenanforderungen;
    • bis zu 15 Mio. EUR oder 3 % des gesamten weltweiten Vorjahresumsatzes bei Verstößen gegen andere Anforderungen oder Verpflichtungen aus der Verordnung, auch bei Verletzungen der Vorschriften für KI-Modelle mit allgemeinem Verwendungszweck;
    • bis zu 7,5 Mio. EUR oder 1,5 % des gesamten weltweiten Vorjahresumsatzes bei falschen, unvollständigen oder irreführenden Angaben in angeforderten Auskünften an benannte Stellen und zuständige nationale Behörden.
    • Bei allen Kategorien von Verstößen wäre der Schwellenwert jeweils der niedrigere der beiden Beträge für KMU und der höhere für andere Unternehmen.

    Zur Harmonisierung der nationalen Vorschriften und Verfahren bei der Festsetzung von Geldbußen wird die Kommission anhand von Empfehlungen des Ausschusses Leitlinien ausarbeiten.

    Da die Organe, Einrichtungen und sonstigen Stellen der EU mit gutem Beispiel vorangehen sollten, werden auch sie den Vorschriften und möglichen Sanktionen unterworfen. Der Europäische Datenschutzbeauftragte wird befugt sein, Geldbußen gegen sie zu verhängen.

    Was können Einzelpersonen tun, wenn sie von einem Verstoß gegen die Vorschriften betroffen sind?

    Das KI-Gesetz sieht das Recht vor, bei einer nationalen Behörde Beschwerde einzulegen. Auf dieser Grundlage können nationale Behörden eine Marktüberwachung nach den Verfahren der Marktüberwachungsverordnungen einleiten.

    Darüber hinaus soll die vorgeschlagene KI-Haftungsrichtlinie den Personen, die Entschädigungen für durch Hochrisiko-KI-Systeme verursachte Schäden beantragen wollen, wirksame Mittel an die Hand geben, um möglicherweise haftende Personen zu ermitteln und einschlägige Beweise für eine Schadensersatzklage zu sichern. Dazu sieht die vorgeschlagene Richtlinie die Offenlegung von Nachweisen über bestimmte Hochrisiko-KI-Systeme vor, bei denen der Verdacht besteht, dass sie Schäden verursacht haben.

    Überdies wird die überarbeitete Produkthaftungsrichtlinie dafür sorgen, dass Personen, die in der Union durch ein fehlerhaftes Produkt getötet oder verletzt werden oder Sachschäden erleiden, eine Entschädigung erhalten, und es wird klargestellt, dass KI-Systeme und Produkte die ihrerseits KI-Systeme enthalten, ebenfalls unter die bestehenden Vorschriften fallen.

    Wie funktionieren die freiwilligen Verhaltenskodizes für Hochrisiko-KI-Systeme?

    Anbieter von KI-Anwendungen, die kein hohes Risiko darstellen, können die Vertrauenswürdigkeit ihrer KI-Systeme dadurch stärken, dass sie eigene freiwillige Verhaltenskodizes aufstellen oder sich den Verhaltenskodizes anderer repräsentativer Verbände anschließen.

    Diese werden parallel zu den Transparenzverpflichtungen für bestimmte KI-Systeme gelten.

    Die Kommission wird Branchenverbände und andere repräsentative Organisationen zur Aufstellung freiwilliger Verhaltenskodizes anhalten.

    Wie funktionieren die Verhaltenskodizes für KI-Modelle mit allgemeinem Verwendungszweck?

    Die Kommission lädt Anbieter von KI-Modellen mit allgemeinem Verwendungszweck und andere Experten zur gemeinsamen Arbeit an einem Verhaltenskodex ein.

    Nachdem solche Kodizes ausgearbeitet und gebilligt worden sind, können sie dann von den Anbietern von KI-Modellen mit allgemeinem Verwendungszweck benutzt werden, um die Einhaltung der einschlägigen Verpflichtungen aus dem KI-Gesetz nachzuweisen – ähnlich wie es bei der DSGVO möglich ist.

    Dies ist besonders wichtig, um die Vorschriften gerade auch für Anbieter von KI-Modellen mit systemischen Risiken im Einzelnen zu verdeutlichen und damit die Vorschriften für die Risikobewertung und -minderung sowie die anderen Verpflichtungen zukunftssicher und wirksam sind.

    Enthält das KI-Gesetz Bestimmungen zum Umweltschutz und zur Nachhaltigkeit?

    Ziel des KI-Vorschlags ist es, die Risiken in Bezug auf die Sicherheit und die Grundrechte anzugehen, wozu auch das Grundrecht auf ein hohes Umweltschutzniveau gehört. Die Umwelt gehört zu den ausdrücklich erwähnten und geschützten Rechtsgütern.

    Die Kommission wird die europäischen Normungsorganisationen mit der Ausarbeitung von Normen beauftragen, nämlich für Berichterstattungs- und Dokumentationsverfahren zur Verbesserung der Ressourceneffizienz von KI-Systemen (um z. B. den Energie- und sonstigen Ressourcenverbrauch eines Hochrisiko-KI-Systems während seines Lebenszyklus zu verringern), und für eine energieeffiziente Entwicklung von KI-Modellen mit allgemeinem Verwendungszweck.

    Außerdem muss die Kommission zwei Jahre nach dem Beginn der Anwendung der Verordnung und danach alle vier Jahre einen Bericht über die Überprüfung der Fortschritte bei der Ausarbeitung von Normungsunterlagen für die energieeffiziente Entwicklung von Modellen mit allgemeinem Verwendungszweck vorlegen und einschätzen, ob weitere (ggf. auch verbindliche) Maßnahmen oder Aktionen nötig sind.

    Darüber hinaus müssen Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, die mit großen Datenmengen trainiert worden sind, was oftmals einen hohen Energiebedarf mit sich bringt, ihren Energieverbrauch offenlegen.

    Für diese Bewertung soll die Kommission eine geeignete Methodik entwickeln.

    Bei KI-Modellen mit allgemeinem Verwendungszweck, die systemische Risiken bergen, muss darüber hinaus die Energieeffizienz bewertet werden.

    Wie können die neuen Vorschriften die Innovation fördern?

    Der Rechtsrahmen kann die Verbreitung von KI auf zweierlei Weise fördern. Einerseits erhöht ein größeres Vertrauen der Nutzer die Nachfrage nach KI, die in Unternehmen und Behörden eingesetzt wird. Andererseits erhalten KI-Anbieter dank der höheren Rechtssicherheit und einheitlicher Vorschriften Zugang zu größeren Märkten mit ihren Produkten, die von Nutzern und Verbrauchern geschätzt und gekauft werden. Die Vorschriften werden nur angewandt, soweit dies unbedingt erforderlich ist, und zwar mit einer schlanken Verwaltungsstruktur und in einer Weise, die die Wirtschaftsteilnehmer so wenig wie möglich belastet.

    Das KI-Gesetz ermöglicht ferner die Schaffung von Reallaboren und die Durchführung von Tests unter realen Bedingungen, also in einem kontrollierten Umfeld, damit innovative Technik für einen begrenzten Zeitraum getestet werden kann. Im Einklang mit dem KI-Gesetz werden so Innovationen durch Unternehmen, KMU und Start-ups gefördert. Zusammen mit anderen Maßnahmen wie den zusätzlichen Netzen der KI-Exzellenzzentren und der öffentlich-privaten Partnerschaft für künstliche Intelligenz, Daten und Robotik wie auch dem Zugang zu digitalen Innovationszentren und Test- und Versuchsanlagen werden sie dazu beitragen, die richtigen Rahmenbedingungen für die Entwicklung und den Einsatz von KI zu schaffen.

    Tests von Hochrisiko-KI-Systemen unter realen Bedingungen dürfen in der Regel höchstens sechs Monate dauern (wobei der Testzeitraum um weitere sechs Monate verlängert werden kann). Vor dem Testen muss ein Plan aufgestellt und der Marktüberwachungsbehörde vorgelegt werden, damit sie den Plan und die spezifischen Testbedingungen genehmigen kann. Wenn die Behörde darauf nicht innerhalb von 30 Tagen geantwortet hat, gilt die Genehmigung als stillschweigend erteilt. Die Behörde kann bei den Tests unangekündigte Kontrollen durchführen.

    Tests unter realen Bedingungen dürfen nur durchgeführt werden, wenn besondere Schutzvorkehrungen getroffen worden sind. So müssen die Nutzer der unter realen Bedingungen zu testenden Systeme ihre sachkundige Zustimmung erteilt haben, die Tests dürfen keine negativen Auswirkungen auf sie haben, die Ergebnisse müssen umkehrbar oder ignorierbar sein, und die Daten müssen nach Abschluss des Tests gelöscht werden. Besonders schutzbedürftige Gruppen (z. B. aufgrund des Alters oder körperlicher oder geistiger Behinderung) müssen dabei speziell geschützt werden.

    Wie wird die EU – außer mit dem KI-Gesetz – Innovationen im Bereich der KI erleichtern und unterstützen?

    Das EU-Konzept für künstliche Intelligenz beruht auf Exzellenz und Vertrauen. Es zielt darauf ab, die Forschung und industrielle Kapazitäten zu fördern und gleichzeitig die Sicherheit und den Schutz der Grundrechte zu gewährleisten. Dabei sollten Menschen und Unternehmen die Vorteile der KI nutzen und sich gleichzeitig sicher und geschützt fühlen können. Ziel der europäischen KI-Strategie ist es, die EU zu einer weltweit führenden Drehscheibe für KI zu machen und gleichzeitig dafür zu sorgen, dass die KI auf den Menschen ausgerichtet und vertrauenswürdig ist. Im April 2021 legte die Kommission ihr KI-Paket vor, das Folgendes umfasste: 1) eine Überprüfung des koordinierten Plans für künstliche Intelligenz und 2) ihren Vorschlag für eine Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz.

    Mit ihrem koordinierten Plan für künstliche Intelligenz hat die Europäische Kommission eine umfassende Strategie zur Förderung der Entwicklung und Einführung von KI in Europa angenommen. Seine Schwerpunkte liegen auf der Schaffung günstiger Voraussetzungen für die Entwicklung und Einführung von KI, der Sicherstellung von Exzellenz vom Forschungslabor bis zum Markt, der Erhöhung der Vertrauenswürdigkeit der KI und der Erlangung einer strategischen Führungsrolle in Sektoren mit großer Wirkung.

    Die Kommission ist bestrebt, die Aktivitäten der Mitgliedstaaten durch eine Koordinierung und Harmonisierung ihrer Bemühungen zum Tragen zu bringen, um bei der Entwicklung und Einführung von KI ein kohärentes und Synergien schaffendes Vorgehen zu fördern. Die Kommission hat auch die Plattform der Europäischen KI-Allianz eingerichtet, in der Interessenträger aus Wissenschaft, Industrie und Zivilgesellschaft zusammenkommen, um Wissen und Erkenntnisse im Bereich der KI-Politik auszutauschen.

    Darüber hinaus sehen die koordinierten Pläne mehrere Maßnahmen vor, die darauf abzielen, Datenressourcen zu erschließen, kritische Rechenkapazitäten auszubauen, die Forschungskapazitäten zu erhöhen, ein europäisches Netz der Erprobungs- und Versuchseinrichtungen (TEFs) zu unterstützen und KMU mithilfe europäischer digitaler Innovationszentren (EDIHs) zu unterstützen.

    Welche internationale Dimension hat das EU-Konzept?

    Das KI-Gesetz und der koordinierte Plan für KI sind Teil der Bemühungen der Europäischen Union um eine weltweite Führungsrolle bei der Förderung einer vertrauenswürdigen KI auf internationaler Ebene. KI ist heute ein Gebiet von strategischer Bedeutung an der Schnittstelle geopolitischer Bestrebungen, wirtschaftlicher Interessen und sicherheitspolitischer Bedenken.

    Auf der ganzen Welt setzen Länder heute KI ein und bekunden damit ihren Wunsch, ausgehend von der Nützlichkeit und dem Potenzial der KI technische Fortschritte zu erzielen. Die Regulierung der künstlichen Intelligenz steht noch am Anfang, weshalb die EU Maßnahmen ergreifen wird, um die Festlegung weltweiter Normen zu fördern, und zwar in enger Zusammenarbeit mit internationalen Partnern und im Einklang mit dem regelbasierten multilateralen System und den Werten, für die sie eintritt. Die EU ist bestrebt, ihre Partnerschaften, Koalitionen und Allianzen mit Partnern der EU (z. B. Japan, USA, Indien, Kanada, Südkorea, Singapur oder Lateinamerika und die Karibik-Region) sowie mit multilateralen (z. B. OECD, G7 und G20) und regionalen Organisationen (z. B. Europarat) zu vertiefen.

    Source – ec.europe.eu/commission


    • Compliance Regulation Unstructured Data

      Compliance Regulation Unstructured Data

      Die Einhaltung von Compliance-Vorschriften im Kontext unstrukturierter Daten ist ein komplexes und sich ständig weiterentwickelndes Gebiet.

      insbesondere da Unternehmen zunehmend auf große Mengen unstrukturierter Daten wie E-Mails, Dokumente, Bilder und Social-Media-Beiträge angewiesen sind. Unstrukturierte Daten sind oft schwieriger zu verwalten und zu überwachen als strukturierte Daten, da sie in verschiedenen Formaten vorliegen und nicht in einer standardisierten Datenbankstruktur organisiert sind.

      Hier sind einige Schlüsselaspekte der Compliance im Zusammenhang mit unstrukturierter Daten:

      1. Datenschutz und Datenschutzbestimmungen: Gesetze wie die EU-Datenschutz-Grundverordnung (DSGVO) und der California Consumer Privacy Act (CCPA) erfordern, dass Unternehmen den Umgang mit personenbezogenen Daten, einschließlich solcher in unstrukturierten Formaten, sorgfältig handhaben.
      2. Aufbewahrungspflichten: Viele Branchen unterliegen spezifischen Vorschriften bezüglich der Dauer, für die bestimmte Arten von Daten aufbewahrt werden müssen. Dies kann auch unstrukturierte Daten umfassen.
      3. E-Discovery*: Im Falle rechtlicher Untersuchungen müssen Unternehmen in der Lage sein, relevante Daten effizient zu identifizieren und bereitzustellen, einschließlich unstrukturierter Daten.
      4. Informationssicherheit: Unstrukturierte Daten müssen vor unbefugtem Zugriff und Cyberangriffen geschützt werden, was eine Herausforderung darstellen kann, da diese Daten oft über verschiedene Plattformen und Geräte verteilt sind.
      5. Klassifizierung und Management: Die Klassifizierung unstrukturierter Daten ist entscheidend, um Compliance-Anforderungen zu erfüllen. Dies kann durch den Einsatz von KI und maschinellem Lernen erleichtert werden, um Muster zu erkennen und Daten entsprechend zu kategorisieren.
      6. Transparenz und Rechenschaftspflicht: Unternehmen müssen in der Lage sein, die Verarbeitung und Verwaltung unstrukturierter Daten nachzuweisen, um Compliance zu gewährleisten.
      7. Internationale Übertragungen: Besonders bei global tätigen Unternehmen ist die Einhaltung internationaler Vorschriften bei der Übertragung unstrukturierter Daten über Grenzen hinweg wichtig.

      Die Einhaltung dieser Vorschriften erfordert oft fortschrittliche IT-Lösungen und -Strategien sowie eine ständige Überwachung und Anpassung an neue gesetzliche Anforderungen und technologische Entwicklungen.

      *E-Discovery, kurz für „Electronic Discovery“, bezieht sich auf den Prozess, bei dem elektronische Daten gesucht, lokalisiert, gesichert und durchsucht werden, um sie als Beweismittel in Rechtsstreitigkeiten oder Untersuchungen zu verwenden. Dieser Prozess ist besonders relevant in der heutigen digitalen Welt, wo eine enorme Menge an Informationen elektronisch gespeichert wird. E-Discovery kann in verschiedenen Phasen eines Rechtsstreits oder einer Untersuchung eine Rolle spielen, von der ersten Untersuchung bis hin zur Vorlage von Beweisen vor Gericht.

      Hier sind einige Schlüsselaspekte von E-Discovery:

      1. Identifikation: Der erste Schritt besteht darin, potenziell relevante Datenquellen zu identifizieren. Dies kann E-Mails, Dokumente, Datenbanken, Social-Media-Profile, Cloud-Speicher und andere elektronische Formate umfassen.
      2. Bewahrung: Sobald relevante Daten identifiziert wurden, müssen sie bewahrt werden, um sicherzustellen, dass sie nicht gelöscht, geändert oder auf andere Weise kompromittiert werden. Dies wird oft durch das Anlegen von Kopien und das Einfrieren von Datenbeständen erreicht.
      3. Sammlung: Die relevanten Daten werden gesammelt, wobei darauf geachtet wird, die Integrität der Daten zu bewahren und eine dokumentierte Kette von Beweisen sicherzustellen.
      4. Verarbeitung: Die gesammelten Daten werden verarbeitet, um sie durchsuchbar und analysierbar zu machen. Dies kann das Filtern von irrelevanten Daten, das Konvertieren von Dateiformaten und das Entfernen von Duplikaten umfassen.
      5. Überprüfung: In diesem Schritt werden die Daten überprüft, um ihre Relevanz für den Fall zu bestimmen. Dies ist oft ein arbeitsintensiver Prozess, bei dem Anwälte und Paralegals große Mengen an Daten durchsehen müssen.
      6. Analyse: Die Daten werden analysiert, um Muster, Trends und Beziehungen zu identifizieren, die für den Fall relevant sein könnten.
      7. Produktion: Die relevanten Daten werden in einem geeigneten Format für die gegenüberliegende Partei oder das Gericht aufbereitet und übergeben.
      8. Präsentation: Schließlich werden die Daten in einer Weise präsentiert, die ihre Relevanz und Bedeutung im Kontext des Rechtsstreits oder der Untersuchung verdeutlicht.

      E-Discovery kann sehr komplex sein, insbesondere bei großen Datenmengen und komplizierten Rechtsfällen. Es erfordert oft spezialisierte Software und Fachkenntnisse in Bereichen wie IT, Recht und Datenanalyse. Darüber hinaus müssen während des gesamten E-Discovery-Prozesses rechtliche und regulatorische Anforderungen, einschließlich Datenschutz und -sicherheit, strikt eingehalten werden.