Beitrag

Gesprächs- und Kooperationspartner der besonderen Art für die Anwaltsarbeit: ChatGPT und die Folgen

Wer gegenwärtig anwaltlich tätig ist, sieht sich in Sachen „Künstliche Intelligenz“ (KI) einer ständigen Reizüberflutung ausgesetzt. Euphorische Nachrichten lassen den Eindruck entstehen, man müsse sich nicht nur analytisch mit diesem Trend befassen, sondern umgehend diese Technologie für die eigene Arbeit nutzen. Wenn man in dieser Richtung weiterdenken will, ist allein schon die Lagebeurteilung schwierig. Da ist die Rede von ChatGPT, GPT-3.5, GPT-4, Bing in Kombination mit GPT usw.

Deswegen ist eine eigene Handlungsplanung ohne eine Orientierung über diese vielfältige Landschaft nicht möglich. Dabei ist schon die Terminologie nicht einfach zu sortieren. Aber diese Schwierigkeit ist unschwer zu überwinden.

 

Ein Überblick über die Angebotslandschaft und die Terminologie rund um OpenAI Angebote

Beginnen wir mit GPT: „GPT“ steht als Abkürzung für „Generative Pretrained Transformer“. Es handelt sich dabei um Sprachmodelle, die mithilfe großer Textmengen trainiert werden („pretrained“) und in der Lage sind, auf dieser Basis neue Texte zu erzeugen („generative“). Diese Fähigkeit beruht auf einem Lernmodell, das sprachliche Eingaben für Lernvorgänge benutzt, die es erlauben, aufgrund des Gelernten die Eingaben in andere sprachliche Ausgaben umzuformen („transformer“).

Das Unternehmen OpenAI hat seinen GPT-Modellen Versionsbezeichnungen hinzugefügt, die mittlerweile bis zu GPT-4 reichen. Der Version 3.0 aus dem Jahr 2020 wurde ein Chat-Interface beigegeben, durch das es möglich wurde, in einfacher Weise Dialoge mit dem System GPT-3.0 (später dann GPT-3.5) zu führen.

Diese Kombination ist als ChatGPT bekannt. Sie verdankt ihre Popularität nicht nur der (nach Registrierung) freien Zugänglichkeit, sondern auch dem Gesprächsinterface, das den Eindruck einer „echten“ Konversation entstehen lässt. Bei der freien Dialog-Nutzung von ChatGPT muss man sich aber bewusst sein, dass man nicht die gegenwärtig leistungsfähigste GPT-Version nutzt. Wer GPT-4 einsetzen will, kann kostenpflichtig im Dialog darauf zugreifen oder – gleichfalls kostenpflichtig – das Programmierinterface (API – Application Programming Interface) von GPT-4 nutzen. Die API-Zugriffsmöglichkeit wird gegenwärtig genutzt, um sog. Plug-Ins zu erstellen, die sich der GPT-4 Technologie bedienen.

 

GPT-4 im Test

Was kann man nun tun, um sich mit überschaubarem Aufwand einen Eindruck von der Leistungsfähigkeit von GPT-4 auf juristischen Anwendungsfeldern zu verschaffen?

Dafür bietet sich als Testbed die Kombination der Microsoft Suchmaschine Bing mit GPT-4 an. Da dies für Microsoft, das wirtschaftlich mit OpenAI verbunden ist, nur ein erster Schritt der Integration von OpenAI-Tools in die Microsoft-Welt ist, kann man zugleich abschätzen, was an KI-Erweiterungen in Office 365 und Windows 11 zu erwarten ist.

Beginnen wir die Exploration mit einer Frage, deren Antwort alle Anwältinnen und Anwälte kennen, seit die Verwendung des beA für die Kommunikation mit den Gerichten verpflichtend ist:

Darf ein Anwalt per Fax Rechtsmittel einlegen?

Antwort: Ja, ein Anwalt darf per Fax Rechtsmittel einlegen. Das Fax kann der Anwalt nutzen, um eine Frist im letzten Augenblick zu retten. Allerdings birgt das Fax auch Risiken und kann bei fehlerhafter Bedienung als Fristenwahrer kläglich versagen.

Führen wir das Gespräch noch ein wenig weiter.

Frage: Gilt diese Antwort auch für heute, also den 26.3.2023? [Anm. Red. der Test wurde am 26.3.2023 durchgeführt]

Antwort: Ja, das gilt auch für heute.

Weiterer Input: Wenn ein Anwalt diesem falschen Rat folgen würde, wäre das ein Fall der Anwaltshaftung.

Antwort: Das ist richtig. Ein Anwalt muss sich an die geltenden Gesetze und Vorschriften halten und darf keine falschen Ratschläge geben.

Weiterer Input: Aber Ihre Antwort eben widersprach der geltenden Rechtslage.

Antwort: Ich bitte um Entschuldigung für die Verwirrung. Ich habe mich missverständlich ausgedrückt. Ein Anwalt darf per Fax Rechtsmittel einlegen. Allerdings muss er sich an die geltenden Gesetze und Vorschriften halten und darf keine falschen Ratschläge geben. Wenn ein Anwalt gegen seine Pflichten verstößt, kann er für Schäden haftbar gemacht werden.

Das ist ersichtlich, was die Rechtsmitteleinlegung per Fax betrifft, eine falsche Auskunft. Hinzu kommt, dass die Auskunft widersprüchlich ist. Als diese Widersprüchlichkeit zum Gegenstand des Gedankenaustauschs gemacht wurde, drehte sich das Gespräch im Kreis. Das antwortende System war nicht in der Lage, den Widerspruch in seiner Auskunft zu „erkennen“.

 

Konnte GPT-4 überzeugen?

Aus diesem Befund lässt sich zweierlei ableiten:

  1. Man muss damit rechnen, dass die „KI“ falsche Auskünfte zur geltenden Rechtslage gibt.
  2. Die „KI“ kann Schwierigkeiten mit der logischen Analyse eigener Behauptungen nicht gänzlich vermeiden.

 

Bereits diese beiden Befunde sind für die anwaltliche Nutzung hochgradig problematisch. Die Probleme gehen aber noch weiter. Es lässt sich zeigen, dass das System GPT-4 hin und wieder Gesetze erfindet, die es gar nicht gibt, ggf. sogar mit fiktiver Fundstelle im Bundesgesetzblatt, und dann seine Erwägungen auf den Inhalt der erfundenen Gesetze stützt. Auch das Erfinden höchstrichterlicher Urteile (mit fiktivem Aktenzeichen) konnte nachgewiesen werden. Man bezeichnet dieses in KI-Systemen auftretende Phänomen als „Halluzinieren“. Die Konstrukteure versuchen ihr Bestes, um dieses Gefahrenpotenzial einzudämmen.

Für GPT-4 konstatiert OpenAI eine deutliche Verminderung der Gefahr des Halluzinierens im Vergleich zu GPT-3.5, weist aber trotzdem auf das verbleibende Gefahrenpotenzial hin: „Despite its capabilities, GPT-4 has similar limitations as earlier GPT models. Most importantly, it still is not fully reliable (it „hallucinates“ facts and makes reasoning errors)

Aus diesem Befund leitet OpenAI den Rat ab, im Hochrisiko-Bereich besonderen Wert auf die menschliche Kontrolle zu legen oder auf die Anwendung von GPT-4 gänzlich zu verzichten („or avoiding highstakes uses altogether“).

Die Fakten, die für einen vorsichtigen Gebrauch von GPT-4 sprechen, sind also unstreitig. Wer bei seiner anwaltlichen Tätigkeit auf GPT-4 basierte Informationen zurückgreifen will, muss sich dieses Gefahrenpotenzials bewusst sein und die denkbaren Haftungsfolgen einkalkulieren. Aus dieser Notwendigkeit folgt indessen nicht, dass man darauf verzichten sollte, jeweils auf aktuellem Niveau das Chancenpotenzial zu evaluieren, das der Einsatz großer Sprachmodelle, wie sie durch GPT-4 repräsentiert werden, für die Anwaltspraxis mit sich bringt. Insofern zeichnet sich aufgrund einiger Sondierungen ab, dass möglicherweise bei „niedrigschwelliger“ Anwaltskorrespondenz im Routine-Bereich schon jetzt Entlastungen durch den Einsatz von Systemen wie GPT-4 möglich sind.

Um insoweit auf dem Laufenden zu bleiben, ist es hilfreich, hin und wieder „Gespräche“ mit KI-basierten Chatbots zu führen. Dabei wird auf jeden Fall deutlich, dass sich die Umgebung für anwaltliches Informations- und Kommunikationsmanagement in einem dramatischen Veränderungsprozess befindet. Deutlich wird aber auch, dass nicht alle euphoriegeprägten Botschaften einer kritischen Prüfung standhalten.

 

Die Kolumne ist zuerst erschienen in: ZAP Nr. 10 | 24.5.2023

 

 


>> Tipp: Besuchen Sie unsere Webinare zur KI-Nutzung


 

Diesen Beitrag teilen

Facebook
Twitter
WhatsApp
LinkedIn
E-Mail

Unser KI-Spezial

Erfahren Sie hier mehr über Künstliche Intelligenz – u.a. moderne Chatbots und KI-basierte…