Beitrag

Kann eine KI unlauter sein?

Kennen Sie das? Sie surfen auf Ihrem modernen Tablet und suchen online beispielsweise nach einem neuen Bürostuhl für die Kanzlei. Sie werden auch fündig, dann kommt jedoch ein wichtiger Termin dazwischen. Nach Feierabend sitzen Sie zu Hause und kehren auf die Shop-Seite mit dem Bürostuhl zurück, nutzen dazu diesmal aber einen alten, privaten Laptop. Und siehe da – der Stuhl ist nun preisgünstiger, obwohl Sie sich im gleichen Onlineshop befinden. Man denkt sofort: Klar, als moderner Tablet-Nutzer gibt man potenziell mehr Geld aus, daher der höhere Preis. Allerdings gibt es bislang keine belastbaren Nachweise oder gar wissenschaftliche Studien, die den naheliegenden Verdacht einer derartigen „Preisfindung“ belegen könnten.

 

KI-Anwendungen im Alltag

Eins ist jedoch sicher: Viele Webshops arbeiten nicht mit festen, sondern mit variierenden Preisen. Dahinter steckt eine dynamische oder auch individualisierte Preisgestaltung auf Basis von entsprechenden Algorithmen. Mit anderen Worten: Das sog. „dynamic pricing“ erfolgt mittels Künstlicher Intelligenz (KI), anhand von Informationen zu Nachfrage, Interessen, Sozialdaten (Wohnort, Handymodell, Kaufverhalten…), Tageszeiten etc. Das wiederum kann, je nach Gestaltung, u.U. gegen § 5 Abs. 2 Nr. 2 UWG verstoßen oder in sonstiger Weise irreführend sein. Aber nicht nur in puncto Preis, sondern auch hinsichtlich der Auflistung von Suchergebnissen, kommen KI-gestützte Techniken zum Einsatz, indem etwa die Waren von bestimmten Anbietern vor denen von Mitbewerbern angezeigt werden. Jedenfalls gegenüber Verbrauchern müssen hier die Pflichtinformationen gem. § 5b Abs. 2 UWG (Hauptparameter zur Festlegung des Rankings sowie relative Gewichtung der Hauptparameter) leicht zugänglich bereitgestellt werden.

Diese simplen Beispiele zeigen, wie oft wir alle im Alltag KI-Anwendungen begegnen, ohne dass wir uns dessen in jedem Einzelfall bewusst sind. Manche Konstellationen werden durch den Gesetzgeber geregelt, andere wiederum nicht. Eine allgemeine Kennzeichnungspflicht für KI-Anwendungen besteht (noch) nicht, kann sich jedoch – wie gezeigt – insbesondere aus dem Wettbewerbsrecht ergeben. Man stelle sich nur mal die Situation vor, dass ein Anwalt sich per KI „klont“, sprich: einen virtuellen Avatar erstellen und seine Stimme synthetisieren lässt, um dieses „KI-Abbild“ dann Mandantenkommunikation oder gar Rechtsberatung durchführen zu lassen. In einem solchen, derzeit sicherlich noch exotischen Fall dürfte jedenfalls eine erhöhte Transparenzpflicht bestehen. Auf europäischer Ebene ist in Bezug auf sog. Deepfakes eine spezielle Pflicht zur Kennzeichnung solcher Inhalte durch die derzeit noch im Entwurfsstadium befindliche KI-Verordnung (engl.: AI Act) geplant (vgl. Art. 52 Abs. 3 KI-VO-E).

 

Follower, Likes & Co.

In den sozialen Medien wird der Erfolg von Profilen und Postings durch die Anzahl der „Gefällt mir“-, „Teilen“-, „Folgen“- oder „Abonnieren“-Klicks bestimmt. Ganz nach dem Motto: je mehr, desto besser. Mehr Klicks bedeuten mehr Reichweite. Wenn dies nicht durch das Posting im Einzelnen oder durch das Profil im Ganzen erreicht werden kann, neigt man möglicherweise dazu, hier etwas „nachhelfen“ zu wollen. Das ist im Grunde auch gar nicht schwer, denn schon für kleines Geld finden sich auf diversen Portalen verlockend klingende Angebote, wie „1.000 Likes für 50,- Euro“ oder „10.000 neue Follower für 100,- Euro“. Bei vielen solcher „Geschäftsmodelle“ werden die Likes bzw. Follower nicht manuell, sondern KI-gestützt erzeugt. Hin wie her ist ein solcher Erwerb jedoch gleich in mehrfacher Hinsicht keine gute Idee. Einerseits wird hierdurch in aller Regel gegen die Nutzungsbestimmungen der jeweiligen Plattform verstoßen, denn nahezu alle Betreiber von sozialen Netzwerken sehen entsprechende Verbote vor. Andererseits stellt die Werbung mit gekauften bzw. Fake-Likes /
-Followern ein unlauteres Verhalten dar (vgl. u.a. LG Stuttgart, Beschl. v. 6.8.2014, Az. 37 O 34/14 KfH) – zumindest dann, wenn die Tatsache, dass es sich nicht um echte, sondern um gekaufte Likes / Follower handelt, verschwiegen wird.

Eine vergleichbare Situation existiert in Bezug auf Bewertungen, auch diese müssen echt sein und der Wahrheit entsprechen. Per KI erzeugte Fake-Bewertungen, die nicht als solche zu erkennen sind, verstößt gegen Nr. 23b des Anhangs zu § 3 Abs. 3 UWG (Irreführung über die Echtheit von Verbraucherbewertungen).

 

E-Mail-Marketing

Sprachmodelle, wie ChatGPT, versprechen gute Texte in Sekundenschnelle und damit neue Möglichkeiten speziell im Bereich der elektronischen Werbung. Mit wenigen Mausklicks automatisiert zum Newsletter für Mandanten und alle, die es bald werden wollen – das hört sich gut an und ist technisch unproblematisch möglich. Aber auch hier gibt es den einen oder anderen Haken. Neben den allgemeinen Anforderungen an elektronisch verschickte Werbung, also insbesondere dem Vorliegen einer rechtskonformen Einwilligung jedes einzelnen Empfängers (§ 7 Abs. 2 Nr. 2 UWG) oder alternativ den Voraussetzungen der sog. Bestandskundenausnahme (§ 7 Abs. 3 UWG), sind noch weitere Aspekte zu beachten. Die Texte von ChatGPT & Co. werden zwar immer besser, sind inhaltlich aber allzu häufig überarbeitungsbedürftig. Das geht sogar so weit, dass die KI einzelne Informationen schlicht erfindet. Dies gilt jedenfalls für solche Systeme, wie etwa die Basis-Version von ChatGPT (ohne Plugins), die nicht mit dem Internet verbunden sind.

Neben der inhaltlichen Korrektheit sollte bei per KI erzeugten Texten darauf geachtet werden, dass diese nicht „marktschreierisch“, sondern im Sinne von § 43b BRAO formuliert werden. Andernfalls droht auch hier ein Berufsrecht- bzw. Wettbewerbsverstoß. Dabei ist die KI-Nutzung jedoch nicht nur das Risiko, sondern zugleich auch eine Chance. Denn ChatGPT, DeepL u.a. Tools bieten die Möglichkeit, Texte nach Vorgabe des Nutzers zu überarbeiten. Vom Marktschreier zum nüchternen Info-Text in wenigen Sekunden.

 

Fazit

Auch im Bereich des Wettbewerbsrechts lauern diverse Stolperfallen beim Einsatz von KI. Hinzu kommt das vergleichsweise strikte anwaltliche Berufsrecht. Insgesamt ist daher Vorsicht geboten, wenn z.B. im Social-Media- oder E-Mail-Marketing-Kontext auf KI-Unterstützung zurückgegriffen werden soll.

 

 

 

Diesen Beitrag teilen

Facebook
Twitter
WhatsApp
LinkedIn
E-Mail

Unser KI-Spezial

Erfahren Sie hier mehr über Künstliche Intelligenz – u.a. moderne Chatbots und KI-basierte…