Beitrag

Die KI-Verordnung und die KI-Haftungsrichtlinie der EU: Regulierung von Künstlicher Intelligenz

Die rasante Entwicklung von Künstlicher Intelligenz (KI) hat enorme Auswirkungen auf die Anwaltschaft, aber auch auf unsere Gesellschaft insgesamt. Um die Entwicklung sowie die Verwendung von KI zu regulieren und potenzielle Risiken einzudämmen, hat die Europäische Union die KI-Verordnung (engl.: AI Act, kurz: AIA) sowie die KI-Haftungsrichtlinie (engl.: AI Liability Directive) auf den Weg gebracht.

 

KI-Verordnung: Ethische Notwendigkeit oder Überregulierung?

Die KI-Verordnung ist ein wegweisender Schritt der EU, um einen europaweit einheitlichen Rechtsrahmen für den Einsatz von KI zu schaffen. Am 27. April 2023 einigte sich das EU-Parlament auf einen Entwurf (KI-VO-E). Über diesen wurde am 11. Mai 2023 abgestimmt. Die finale Abstimmung im Plenum ist für Juni 2023 angesetzt.

Das Hauptziel der KI-Verordnung besteht darin, ethische Standards festzulegen und sicherzustellen, dass KI-Systeme sicher und vertrauenswürdig sind. Sie definiert verschiedene Kategorien von KI-Anwendungen, die unterschiedlichen Regeln und Anforderungen unterliegen. Eine der wichtigsten Bestimmungen der Verordnung ist die Pflicht zur Risikobewertung und Dokumentation für Hochrisiko-KI-Systeme. Dies betrifft KI-Anwendungen, wie etwa autonomes Fahren, Gesichtserkennung und medizinische Diagnose. Darüber hinaus sieht die Verordnung vor, dass bestimmte KI-Anwendungen einer vorherigen Genehmigung unterliegen, bevor sie auf den Markt gebracht werden dürfen.

Ein zentraler Punkt ist die Definition von KI, also letztlich die Regelung darüber, welche Technologien von der KI-Verordnung reguliert werden sollen. Derzeit findet sich noch folgende Definition von KI in Art. 3 Nr. 1 KI-VO-E:

„eine Software, die mit einer oder mehreren der in Anhang I aufgeführten Techniken und Konzepte entwickelt worden ist und im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Ergebnisse wie Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen kann, die das Umfeld beeinflussen, mit dem sie interagieren.“

Adressaten der KI-Verordnung sind primär die Anbieter von KI-Anwendungen, also z.B. OpenAI oder Google. Anbieter in diesem Sinne soll jede natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle sein, die ein KI-System entwickelt oder entwickeln lässt, um es unter ihrem eigenen Namen oder ihrer eigenen Marke – entgeltlich oder unentgeltlich – in Verkehr zu bringen oder in Betrieb zu nehmen (Art. 3 Nr. 2 KI-VO-E). Darüber hinaus können die Anbieter-Pflichten unter bestimmten Voraussetzungen aber auch Dritter treffen, u.a. Hersteller von Produkten mit integrierter KI, Importeure und Händler von KI-Anwendungen oder sogar ihre Nutzer.

Gemäß Art. 5 Abs. 1 KI-VO-E sollen folgende KI-Praktiken verboten sein:

– Beeinflussung von Verhalten

– Beeinflussung und Ausnutzung von schutzbedürftigen Gruppen

– Soziale Bewertung (sog. Social Scoring)

– Biometrische Echtzeit-Fernidentifizierungssysteme

Abhängig vom Einsatzzweck werden KI-Systeme in verschiedene Risikoklassen unterteilt (unannehmbar, hohes Risiko und geringes bzw. minimales Risiko). Je höher das Risiko, desto strenger sind auch die Anforderungen an das Inverkehrbringen und Betreiben solcher Systeme. Die Anbieter sog. Hochrisiko-KI-Systeme müssen beispielsweise Risikomanagementsysteme betreiben, technische Dokumentationen vorhalten und erweiterte Transparenzpflichten erfüllen. Zu solchen Hochrisiko-KI-Systemen gehören u.a. solche Systeme, die eine Sicherheitsfunktion erfüllen, in der Justiz eingesetzt werden oder besonders schützenswerte personenbezogene Daten (z.B. Gesundheitsdaten) verarbeiten.

 

KI-Haftungs-Richtlinie: Wer haftet wann wofür?

Parallel zum Vorschlag einer aktualisierten EU-Produkthaftungs-Richtlinie existiert in der EU ein Vorschlag für eine KI-Haftungs-Richtlinie; beide hat die Europäische Kommission am 28. September 2022 angenommen. Beide Richtlinien sollen sich stark an die KI-Verordnung anlehnen, indem sie insbesondere auf die dort definierten Begriffe, wie „KI“ oder „Hochrisiko-System“, Bezug nimmt.

Während die KI-VO die Anbieter von KI und ihre Produkte regulieren will, setzt die KI-Haftungs-Richtlinie zeitlich später an, nämlich dann, wenn es durch den bzw. beim Betrieb einer KI zu einem Schaden gekommen ist. So soll die zivilrechtliche Haftung ergänzt und modernisiert werden, indem nun spezifische Vorschriften für durch KI-Systeme verursachte Schäden eingeführt werden. Dabei spielen zwei Aspekte eine besondere Rolle:

  1. Beweiserleichterung durch Einführung einer (widerlegbaren) Kausalitätsvermutung in Bezug auf den direkten Zusammenhang zwischen der Verletzung einer Sorgfaltspflicht und dem entstandenen Schaden
  2. Verbesserter Zugang für Opfer von Hochrisiko-KI-Systemen zu Beweismitteln durch einen Anspruch auf Offenlegung entsprechender Informationen

 

Die Haftung soll sowohl für solche Schäden gelten, die durch Hochrisiko-KI-Systeme verursacht werden, als auch für alle anderen KI-Systeme ohne hohes Risiko. Insgesamt sollen der Opferschutz gestärkt und diverse Pflichten insbesondere für Anbieter von Hochrisiko-Systemen etabliert werden.

 

Diesen Beitrag teilen

Facebook
Twitter
WhatsApp
LinkedIn
E-Mail

Unser KI-Spezial

Erfahren Sie hier mehr über Künstliche Intelligenz – u.a. moderne Chatbots und KI-basierte…