Mal eben mit Hilfe von Künstlicher Intelligenz (KI) Informationen über ein bestimmtes Thema zusammenstellen, eine Vertragsvorlage formulieren, eine Grafik für einen Fachaufsatz generieren oder die Powerpoint-Folien für den nächsten Vortrag erstellen lassen… die Möglichkeiten moderner KI-Werkzeuge sind schier grenzenlos. Der so erzeugte Content muss aber nicht nur auf inhaltliche Richtigkeit, sondern auch auf etwaige Rechtsverstöße kontrolliert werden. Denn zumindest technisch ist es bei vielen der heutzutage am Markt verfügbaren KI-Tools zumindest nicht ausgeschlossen, dass beispielsweise das per KI erstellte Foto oder auch eine „synthetische“ Stimme dem bzw. der einer real existierenden Person gleicht oder zumindest verwechselbar ähnelt. Auch fremde Namensrechte können theoretisch beeinträchtigt werden. Kurzum: Es gilt stets, das Allgemeine Persönlichkeitsrecht (APR) zu beachten.
Bündel einzelner Rechte
Das APR ist ein grundlegendes Recht, das in vielen Rechtssystemen anerkannt ist. In Deutschland ist es nicht ausdrücklich im Grundgesetz geregelt, sondern ergibt sich aus dem Gedanken von Art. 2 Abs. 1 (freie Entfaltung der Persönlichkeit) i.V.m. Art. 1 Abs. 1 GG (Schutz der Menschenwürde). Es schützt die Freiheit des Individuums und dient damit einem der ursprünglichsten Zwecke der Grundrechte: Schutz des Bürgers vor (ungerechtfertigten) staatlichen Eingriffen. Das APR ist nicht auf einen bestimmten Lebensbereich beschränkt, sondern umfasst einen weiten Regelungsbereich. Beim APR handelt es sich also letztlich um einen Oberbegriff, der ein ganzes Bündel aus einzelnen Rechtspositionen beschreibt. Folgende Einzelrechte gehören u.a. dazu:
- Recht an der eigenen Ehre (u.a. geschützt durch § 823 BGB oder §§ 185 ff. StGB)
- Recht am eigenen Namen (vgl § 12 BGB)
- Recht am eigenen Bild (insbesondere geregelt im KUG)
- Recht an der eigenen Stimme (vgl. BGH, „Marlene-Dietrich“-Urt. v. 1.12.1999, Az. I ZR 49/97, oder auch OLG Hamburg, „Heinz-Erhardt“-Beschl. v. 8.5.1989, Az. 3 W 45/89)
- Recht auf informationelle Selbstbestimmung (vgl. BVerfG, Urt. V. 15.12.1983, Az. 1 BvR 209/83)
Ebenso fällt auch der Schutz des postmortalen Persönlichkeitsrechts in diesen Bereich.
Chancen, aber auch Risiken
Hält man sich nun vor Augen, dass es mit Hilfe von Künstlicher Intelligenz (KI) inzwischen sehr einfach möglich ist, z.B. Videos oder Fotos so zu manipulieren, dass sie täuschend echt wirken, dann dürften schnell die darin steckenden Möglichkeiten sowie auch das hohe Missbrauchspotential zu Tage treten. Denn inzwischen ist es auch für technische Laien mit nur wenigen Mausklicks möglich, Video- oder Foto-Material zu erschaffen, obwohl es die abgebildete Szenerie womöglich so nie gegeben hat. Bestimmte KI-Tools können schon aus simplen Schnappschüssen so genannte Deepfakes herstellen, die etwa einen „verhafteten“ Donald Trump bei seiner „Gegenwehr“ gegen Polizisten oder den „Papst“ in einer modernen Daunenjacke zeigen.
Andere Tools wiederum erlauben es, auf Basis einer nur wenige Sekunden dauernden Tonaufnahme eine menschliche Stimme zu synthetisieren, so dass man mit ihr jeden beliebigen Text in jeder beliebigen Sprache wiedergeben kann. Die modernen KI-Systeme zeigen umso mehr die in diesen Möglichkeiten steckenden Gefahren, als dass die menschliche Stimme, bestimmte Merkmale des Gesichts, die Iris oder auch der Daumenabdruck eines Menschen biometrische Merkmale sind, anhand derer man ihn eindeutig identifizieren kann. Neben der Problematik des APR öffnet sich insoweit – ganz nebenbei erwähnt – eine ganz neue Dimension mit Blick auf die Beweisführung insbesondere in gerichtlichen Verfahren.
Fragen über Fragen
Vor diesem Hintergrund stellen sich diverse Fragen rund um die einzelnen Bereiche des APR:
- Kann das Recht am eigenen Bild dadurch beeinträchtigt werden, dass ein KI-Werkzeug zur Erstellung von Fotos „zufällig“ das Bild einer Person erzeugt, die einer real existierenden gleicht oder zumindest sehr stark ähnelt?
- Darf Foto- oder Video-Material, auf dem eine Person erkennbar abgebildet ist, im Rahmen des KI-Prompts, ohne dass die betreffende Person dazu ihre Einwilligung gegeben hat?
- Darf einfach so mit „fremder Stimme gesprochen“ werden, darf also die per KI täuschend echt nachgebildete Stimme einer real existierenden Person dazu genutzt werden, Text zu „sprechen“, die die betreffende Person so niemals gesagt hat?
- Dürfen existierende Foto- oder Videoaufnahmen per KI einfach so manipuliert werden, dass die darauf erkennbar abgebildeten Personen nicht verfremdet, aber „aufgehübscht“ werden?
- Dürfen mit einem per KI-Deepfake erzeugten Abbild eines Prominenten ohne dessen Zustimmung Werbung gemacht oder bestimmte Botschaften verbreitet werden?
Diese und noch weitere Fragen werden uns in Zukunft verstärkt beschäftigen. Nicht nur in puncto Echtheitsprüfung von Nachweisen in rechtlichen Streitigkeiten, sondern schon im Rahmen der Ermittlung des eigentlichen Sachverhalts.
Aktuell sind die Ergebnisse der „KI-Fälschungen“ qualitativ noch so ausgestaltet, dass man sie erkennen kann – in manchen Fällen schon mit bloßem Auge / Ohr, manchmal aber auch nur unter Zuhilfenahme von technischen Hilfsmitteln. So gibt es bereits KI-Anwendungen, die die Echtheit von Content prüfen und bestimmen können, ob wir es mit Deepfakes, KI-Content etc. oder mit einem durch einen Menschen erschaffenen Werk zu tun haben.
Das klappt aber naturgemäß nicht mit einer 100%igen Sicherheit, sondern kann oftmals lediglich eine Tendenz liefern, ob eine KI im Spiel war bzw. ob es sich um Fake-Inhalte handelt oder nicht. Da sowohl die Deepfake- als auch die Erkennungstechnik stetig verbessert wird, erleben wir ein „Hase-und-Igel“-Rennen darum, was schneller ist: die Erstellung von täuschend echt wirkenden Inhalten oder die Entlarvung derselben.
Besserung durch den AI-Act?
Die noch im Gesetzgebungsprozess steckende KI-Verordnung der EU, der so genannte AI Act, will insbesondere die Entwicklung und den Vertrieb von KI-Systemen regulieren. In Art. 52 des Entwurfs der KI-Verordnung sind Transparenzpflichten für bestimmte KI-Systeme festgelegt. So verlangt Art. 52 Abs. 1 KI-VO-E etwa, dass sichergestellt wird, dass KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass natürlichen Personen mitgeteilt wird, dass sie es mit einem KI-System zu tun haben. Wer zukünftig also etwa eine Support-Anfrage in einem Online-Chatsystem stellt, der muss darauf hingewiesen werden, dass er mit einer KI und nicht mit einem Menschen spricht. Dies gilt jedenfalls, sofern dies nicht aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist.
In Bezug auf das APR ist aber auch Art. 52 Abs. 2 KI-VO-E interessant. Dieser besagt folgendes:
„Die Verwender eines Emotionserkennungssystems oder eines Systems zur biometrischen Kategorisierung informieren die davon betroffenen natürlichen Personen über den Betrieb des Systems. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung verwendet werden.“
Soll es also zu einem erheblichen Eingriff in das Recht am eigenen Bild oder an der eigenen Stimme durch entsprechend eingesetzte KI-Systeme kommen, dann gilt hierbei immerhin eine Hinweispflicht.
Und auch Deepfakes sollen offengelegt werden, so will es jedenfalls Art. 52 Abs. 3 KI-VO-E:
„Nutzer eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die wirklichen Personen, Gegenständen, Orten oder anderen Einrichtungen oder Ereignissen merklich ähneln und einer Person fälschlicherweise als echt oder wahrhaftig erscheinen würden („Deepfake“), müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.“
Die geplanten EU-KI-Regeln in allen Ehren, aber es bleibt abzuwarten, ob und inwieweit sich KI-Anbieter aus den USA oder aus Asien an diese Vorgaben halten werden und wie effektiv sich Betroffene gegen etwaige Verstöße werden wehren können. Jedenfalls wird die Anzahl der Rechtsstreitigkeiten mit dem Schwerpunkt APR sicherlich steigen.