Die fortschreitende Digitalisierung bringt neben der hilfreichen Automatisierung, auch eine ganze Palette an juristischen Kopfschmerzen mit sich, ganz besonders für anwaltliche Berufsträger. Legal Tech Tools aus dem Bereich der KI und dabei insbesondere generative KI in Form von LLMs wie ChatGPT, Claude oder Gemini versprechen Effizienzsteigerung, revolutionäre Workflows und eine enorme Zeitersparnis.
Doch Vorsicht: Wer sich blindlings auf diese Technologie einlässt, kann sich schnell in berufsrechtliche Grauzonen manövrieren. Denn eins ist klar: Das anwaltliche Berufsrecht hat kein Update auf „Version KI kompatibel“ erfahren. Zusätzlich zum AI Act und dem Datenschutz, gelten die Vorschriften von BRAO, BORA und RDG uneingeschränkt und die Vereinbarkeit mit der automatisierten Praxis ist nicht zu unterschätzen. Jeder Anwalt der KI einsetzen möchte, sollte sich zumindest mit den Grundlagen vertraut machen und sich der Risiken der Systeme bewusst sein. Kann generative KI also unter diese Vorschriften fallen? Und was muss der KI-Anwalt oder der KI einsetzende Anwalt somit berufsrechtlich beachten?
RDG
Ein besonders heikler Bereich ist das Rechtsdienstleistungsgesetz (RDG). Das RDG ist ein Verbotsgesetz mit Erlaubnisvorbehalt, um Rechtssuchende vor unqualifizierter rechtlicher Beratung zu schützen. Nach § 2 Abs. 1 RDG ist jede rechtliche Subsumtion, die über eine bloße pauschale Anwendung des Rechts hinausgeht, eine Rechtsdienstleistung (Wilmer, EuZW 2024, 868, 874) – und dafür braucht es eine Erlaubnis. Das Problem dabei ist, dass generative KI genau das leistet: selbstständig Rechtsfragen im Einzelfall einordnen sowie rechtlich und kontextbezogen bewerten (ob das Ergebnis, insbesondere die Subsumtion, tatsächlich richtig ist, ist eine andere Frage). In solchen Fällen liegt das Risiko nahe, dass eine erlaubnispflichtige Rechtsdienstleistung vorliegen könnte.
Rechtsprechung
Hier beginnt das Problem: Während wir Rechtsanwälte gemäß § 3 BRAO uneingeschränkt zur Rechtsberatung befugt sind, können LLMs genau das tun, was das RDG außerhalb der Anwaltschaft verhindern will: eigenständige Subsumtionen vornehmen. Was passiert also, wenn ein KI-Tool auf eine Nutzeranfrage hin (komplexe) rechtliche Fragen „beantwortet“? Das BGH-Urteil von 2021 in Legal Tech-Sachen des Vertragsgeneratoren „Smartlaw“ (BGH, Urt. v. 9.9.2021 – I ZR 113/20) ließ zwar einen gewissen Spielraum offen, allerdings ist die Grenze hauchdünn. Denn während der BGH für Vertragsgeneratoren urteilte, dass sie keine „konkrete fremde Angelegenheit“ bearbeiten, da keine individuelle Subsumtion im Einzelfall vorgenommen wird und der Nutzer selbst für die Informationsstellung verantwortlich bleibt, erfüllen doch generative KI-Systeme genau diese Kriterien.
In der Praxis hatte es sich im Legal Tech-Bereich insbesondere etabliert, die Rechtsdienstleistung gemäß § 10 Abs. 1 S. 1 RDG von einem Inkassodienstleister vornehmen zulassen. Umstritten ist jedoch, wie weit der Begriff der Inkassodienstleistung zu sehen ist und wie viel rechtliche Bewertung hiervon abgedeckt sein darf. Der BGH hatte in Sachen „wenigermiete.de“ eine enge Verbindung zwischen Einforderung und Auslösung eines Anspruchs gesehen und somit die Überschreitung einer Inkassodienstleistung abgelehnt. (BGH, Urt. v. 30.3.2022 – VIII ZR 256/21) Ein positives Urteil für die Legal Tech Branche, die mit den wenigen Optionen versucht, Innovation durch das Berufsrecht nicht ausbremsen zu lassen. Dennoch müssen die Entwicklungen im Auge behalten werden, denn jegliche weitere Beratung und rechtliche Bewertung über einen engen Sachverhalt über die Forderungseinziehung hinaus, dürfte nicht mehr von § 10 Abs. 1 S. 1 RDG gedeckt sein.
Legal Tech
Bezogen auf die Arbeit des Rechtsanwaltes stünde dazu nämlich im Widerspruch, dass Rechtsanwälte zur gewissenhaften Berufsausübung verpflichtet sind, § 43 S. 1 BRAO. Dazu gehört auch die Aufgabe, Sachverhalte umfassend aufzuklären und vollumfänglich zu bewerten. Dies impliziert die persönliche Erbringung der anwaltlichen Dienstleistung, ein Kernelement des freien Berufs, das durch seine Unabhängigkeit, Eigenverantwortlichkeit und das besondere Vertrauensverhältnis zum Mandanten gekennzeichnet ist. Die Nutzung von LLMs kann hier dann zu Spannungen führen, wenn standardisierte oder automatisierte Prozesse die persönliche Leistungserbringung ersetzen.
Die Rechtsprechung erlaubt den Einsatz von Legal Tech Tools, sofern nicht der Eindruck entsteht, dass eine individuelle anwaltliche Prüfung vorgenommen wird und eine abschließende anwaltliche Kontrolle gewährleistet ist. (OLG Hamm, Urt. v. 7.3.2013 – 4 U 162/12; LG Berlin, Urt. v. 5.6.2014 – 14 O 395/13) Auch die Bundesrechtsanwaltskammer (BRAK) hat diesen Gedanken in ihrem Leitfaden zum Einsatz von KI aufgegriffen und weist deutlich darauf hin, dass KI-Systeme lediglich als Unterstützung der anwaltlichen Arbeit dienen dürfen und „eine eigenverantwortliche Überprüfung und Endkontrolle der KI Ergebnisse durch den Rechtsanwalt“ erforderlich bleibt. (Remmertz, Hinweise zum Einsatz von künstlicher Intelligenz (KI), S. 2)
Schließlich kann sich der Anwalt bei Fehlern nicht darauf berufen, dass „die Maschine das gesagt hat“. Der Anwalt haftet, wenn Mandanten durch fehlerhafte KI generierte Inhalte Schaden erleiden. Durch die Neigung der LLMs bei Unwissenheit zu Halluzinieren, ist dies keine theoretische Gefahr. Und das so subtil, dass selbst erfahrene Juristen ins Schwitzen geraten können. Stellt sich heraus, dass eine KI eine rechtliche Fehleinschätzung trifft und der Mandant auf Grundlage dieser Fehlinformationen handelt, kann das berufsrechtliche und haftungsrechtliche Konsequenzen nach sich ziehen. Hierbei ist insbesondere darauf zu achten, dass entsprechende Haftungsfälle in aller Regel nicht von den Berufshaftpflichtversicherungen übernommen werden. (Ausführlich hierzu: Jungk, Reicht die Berufshaftpflichtversicherung noch im Hinblick auf KI?, AnwBl 2024, 354) Der Deutsche Anwaltverein (DAV) schreibt in seiner „Initiativ-Stellungnahme zum Einsatz von KI in der Anwaltschaft“, dass es jedoch keinen Verstoß gegen das Gebot der Gewissenhaftigkeit darstellt, wenn der Mandant nicht will, dass das von der KI generierte Ergebnis noch einmal anwaltlich überprüft wird. (DAV, Initiative-Stellungnahme zum Einsatz von KI in der Anwaltschaft, S. 8)
Und auch aus anderen Gründen kann es zu anwaltlicher Haftung für Legal Tech kommen. Wer seine Robo-Lawyer zu intensiv bewirbt, kann – wie zuletzt international geschehen – Probleme bekommen. Die Federal Trade Commission (FTC) hat kürzlich ein Verfahren gegen DoNotPay abgeschlossen. Das grundlegende Konzept des Unternehmens richtet sich gegen Strafmandate für Falschparken, bei denen der Nutzer anhand voreingestellter Frage-Antwort Prinzipen herausfinden kann, ob sich beispielsweise ein Einspruch gegen die Strafe lohnt. Mittlerweile bietet das Unternehmen weitaus mehr KI gestützte Hilfestellungen zu Rechtsfragen an und warb daher mit den Worten „the world’s first robot lawyer“ zu sein. (https://www.ftc.gov/legal-library/browse/cases-proceedings/donotpay (zuletzt abgerufen am 19.4.2025)) Die FTC entschied mit 5:0-Stimmen im Januar 2025, dass DoNotPay wegen irreführenden Marketings eine Strafe von 193.000 Dollar zahlen muss und keine ähnlichen Behauptungen mehr aufstellen darf.
Verschwiegenheitspflicht & Berufsgeheimnis
Eine weitere Herausforderung stellt die Verschwiegenheitspflicht nach § 43a Abs. 2 BRAO dar. Anwälte dürfen keine vertraulichen Informationen weitergeben, die ihnen im Rahmen ihres Mandates zugetragen wurden, § 43a Abs. 2 S. 2 BRAO. Das sind Geheimnisse, die auch strafrechtlich durch § 203 Abs. 1 Nr. 3 StGB abgesichert sind. Doch genau das kann still und leise passieren, wenn LLMs genutzt werden. Die meisten dieser Systeme laufen in der Cloud und speichern oder analysieren Eingaben, um ihre Modelle zu verbessern. Schlecht für den Rechtsanwalt, wenn sensible Mandanteninformationen in undurchsichtigen Rechenzentren irgendwo auf der Welt landen und Dritte, wie Mitarbeiter der Hosting Gesellschaft oder unbekannte Geheimdienste, auch nur die bloße Möglichkeit der Kenntnisnahme haben. (Remmertz, Hinweise zum Einsatz von künstlicher Intelligenz (KI), S. 3; Kleine-Cosack, BRAO, § 43e Rn 4)
Kann hier § 43e BRAO helfen? Dieser eröffnet für Rechtsanwälte die Option sich der Unterstützung von dritten Dienstleistern zu bedienen, zum Beispiel beim IT-Outsourcing, allerdings nur, soweit diese Unterstützung erforderlich ist. Der Anbieter muss bewusst in die berufliche Tätigkeit eingebunden und zur Verschwiegenheit verpflichtet werden. Bei den gängigen im Internet zur Verfügung stehenden Anbietern wie ChatGPT oder Copilot sind diese Voraussetzungen nicht erfüllt. (DAV, Initiative-Stellungnahme zum Einsatz von KI in der Anwaltschaft, S. 11) Es gilt zusätzlich das „Need-to-know-Prinzip“, also die Prüfung ob die Weitergabe und Offenlegung von mandatsbezogenen Informationen auch tatsächlich für die Mandatsbearbeitung notwendig ist. (BT-Drucks 18/11936, 34) Eine Voraussetzung, die insbesondere mit Blick auf die Digitalisierung des Rechtsdienstleistungsmarktes eine große Hürde für die Praxis darstellt. (So auch: Kleine-Cosack, BRAO, § 43e Rn 1, 3) Ist die Weitergabe „erforderlich“ genießt der Grundsatz der Vertraulichkeit weiterhin höchste Priorität und muss von den Dienstleistern entsprechend vertraglich zugesichert werden. Die BRAK empfiehlt zusätzlich die Daten zu anonymisieren oder verschlüsseln. (Remmertz, Hinweise zum Einsatz von künstlicher Intelligenz (KI), S. 4)
LLM
Bei der Verwendung von den gängigen LLMs werden Informationen, die im Prompt oder den hochgeladenen Dokumenten vorhanden sind, verarbeitet. Diese stehen bei einigen Systemen – abhängig von Modell und Einstellung – für weiteres Training zur Verfügung und werden dadurch für Dritte reproduzierbar. Ferner behalten sich einige LLM-Anbieter vor, die Prompts und Chronik ihrer Nutzer einsehen zu dürfen, zum Beispiel zum sogenannten Abuse Monitoring, um strafbares oder gegen die Nutzungsbedingungen verstoßendes Verhalten herauszufiltern, wobei die Möglichkeit besteht dass Mitarbeiter des Unternehmens in komplexen Fällen diese Inhalte einsehen. (Zum Beispiel: https://learn.microsoft.com/en-us/azure/ai-services/openai/concepts/abuse-monitoring (zuletzt abgerufen am 10.5.2025)) An dieser Stelle kann es zu oben beschriebenem Problem kommen, denn die reine Möglichkeit für einen Dritten, Kenntnis von den vertraulichen Informationen zu nehmen, genügt für einen Verstoß gegen das Berufsgeheimnis. Die Daten müssen vorher vollständig anonymisiert und/oder pseudonymisiert werden. (So auch: DAV, Initiative-Stellungnahme zum Einsatz von KI in der Anwaltschaft, S. 11)
In einem Zeitalter, wo die Größe der gespeicherten Daten aufgrund von Couldcomputing keine Rolle mehr spielt, die e-Akte in die meisten Kanzleien eingezogen ist, Übersetzungsprogramme eine Kommunikation in nahezu jeder Sprache dieser Welt ermöglichen und LLMs aus Stichpunkten ganze E-Mails formulieren, stellt sich die Frage, ob der Begriff der „Erforderlichkeit“ (Remmertz, Hinweise zum Einsatz von künstlicher Intelligenz (KI), S. 3 f.) aus § 43e BRAO nicht zeitgemäß ausgelegt werden muss. Erforderlich kann ein Dienst dann sein, wenn es keine gleichermaßen sinnvolle Alternative gibt und er zu sachgerechten Mandatsbearbeitung beiträgt.
Nun könnte man den Standpunkt vertreten, dass es „State of the Art“ ist, sich generativer KI auch bei der alltäglichen Arbeit zu bedienen. Sie beschleunigt insbesondere repetitive Prozesse und kann dadurch dazu beitragen, die Kosten für den Mandanten zu senken sowie innovative Ideen und neue Ansätze beizusteuern. So erscheint es fast unabdingbar, dass sich der Rechtsanwalt der neuesten Technologie bedient, um seinem Mandanten die umfassende und gute Rechtsberatung zu bieten, die das Berufsrecht grundsätzlich von ihm erwartet. Das Ganze dann auch noch effektiver und kostengünstiger als zuvor. Machen es all diese Vorteile dann nicht „erforderlich“, Arbeit an die generative KI outzusourcen?
Die BRAK hält es derzeit bei frei verfügbaren Sprachmodellen wie ChatGPT nicht für erforderlich, Mandatsgeheimnisse zu übermitteln, da diese auch ohne die Übermittlung dieser Daten genutzt werden können und „eine Weitergabe mit unkalkulierbaren Risiken für die Mandanten verbunden wären“. (Remmertz, Hinweise zum Einsatz von künstlicher Intelligenz (KI), S. 4) Ließe sich vielleicht zumindest die „Unkalkulierbarkeit des Risikos“ bei Anbietern ausschließen, die zusagen, sowohl keine Daten an die Modellbetreiber zu übertragen, Daten nicht für Trainingszwecke zu verwenden, diese zu verschlüsseln und nicht dauerhaft zu speichern? (So sagt es zum Beispiel libratech.ai zu.) Doch kann das darüber hinweg helfen, dass die LLMs durchaus auch mit anonymisierten oder pseudonymisierten Daten umgehen können?
Möglich könnte hier eine vermittelnde Betrachtung sein: Einfache Inhalte, wie kurze Schriftsätze oder E-Mails sind ohne großen Aufwand zu anonymisieren. Hier liegt kein unverhältnismäßig großer Aufwand zum daraus möglichen Nutzen für den Anwalt vor. Anderes gilt für seitenlange Verträge und mehrere Ordner umfassende Prozessakten, deren Anonymisierung in keinem vernünftigen Verhältnis zum Nutzen stünde. (Jedenfalls solange es keine zuverlässigen Anonymisierungs-Tools gibt, die auch versteckte, kontextabhängige sensible Informationen zuverlässig erkennt.) Man würde davon ausgehen, dass der Anwalt aufgrund seiner beschriebenen Verpflichtung gegenüber dem Mandanten, sich effektiv und kostensparend zu verhalten, das Outsourcing an das LLM sogar vornehmen müsste. Abgesichert durch NDAs in denen die berufliche Verschwiegenheitspflicht des Anwalts auf die beteiligten Akteure ausgeweitet wird.
Auch der DAV sieht hier Spielraum: Anwälte haben bzgl. der Erforderlichkeit des § 43e BARO eine unternehmerische Entscheidung zu treffen. Jedoch sind angemessen Sicherheitsmaßnahmen durch die Anwälte zu ergreifen, um die Kenntnisnahme der Inhalte durch Dritte auf das Erforderliche zu beschränken. (DAV, Initiative-Stellungnahme zum Einsatz von KI in der Anwaltschaft, S. 11) Allerdings bestünde eine vollständige Verschlüsselungspflicht (zum Beispiel „Hold-your-own-key“) nicht, wenn diese faktisch zur Verhinderung des Einsatzes führt, weil im Fall des Schlüsselverlustes existenzbedrohende Risiken drohen. (DAV, Initiative-Stellungnahme zum Einsatz von KI in der Anwaltschaft, S. 12) Die für IT-Spezialisten fest gelegten notwendigen Möglichkeiten der Kenntnisnahme für eine sinnvolle Inanspruchnahme der Dienstleistungen, müsse nun auch auf KI und/oder Cloud-Dienstleister ausgeweitet werden. (DAV, Initiative-Stellungnahme zum Einsatz von KI in der Anwaltschaft, S. 12) Dennoch bleibt es notwendig, die Anbieter zur üblichen Verschwiegenheit schriftlich zu verpflichten, eine Kettenweitergabe der Informationen und insbesondere das Verwenden der Daten zu Trainingszwecken zu verhindern. (DAV, Initiative-Stellungnahme zum Einsatz von KI in der Anwaltschaft, S. 12)
Transparenz- & Informationspflicht
Jedenfalls sollte der Mandant über die Verwendung von KI-Systemen informiert werden. Zwar besteht aus berufsrechtlicher Sicht grundsätzlich keine Pflicht, Mandanten explizit über den Einsatz von KI zu informieren oder seine Einwilligung einzuholen (Jedenfalls nicht bei Verwendung der KI im Rahmen der allgemeinen Kanzleiarbeit. Anders nach § 43e V BRAO, wenn die KI unmittelbar dem konkreten Einzelmandant dient; statt vieler: DAV, Initiative-Stellungnahme zum Einsatz von KI in der Anwaltschaft, S. 13), es können sich aus aber vertraglichen Pflichten oder dem Gesetz gegen unlauteren Wettbewerb (UWG) Transparenzanforderungen ergeben. (Remmertz, Hinweise zum Einsatz von künstlicher Intelligenz (KI), S. 5) Ein transparenter Umgang mit den eingesetzten Technologien stärkt das Vertrauen der Mandanten und beugt Missverständnissen vor. Auch sind die zukünftigen Offenlegungspflichten nach Art. 50 AI Act zu beachten, die ab 2.8.2026 greifen und insbesondere den Umgang mit manipulierter oder automatisch generierter Information regeln.
Die Anwaltschaft steht vor einem technologischen Wandel, der viele Herausforderungen mit sich bringt. Doch wer zur Sicherheit auf KI verzichtet, läuft in Gefahr, von Kollegen überholt zu werden, die sich rechtzeitig mit den Risiken auseinandersetzt und transparente, berufsrechtskonforme Konzepte entwickelt haben und mit denen sie die KI nutzen.
Praxistipp zum Einsatz von KI in der Anwaltschaft (ausführlich siehe: DAV, Initiative-Stellungnahme zum Einsatz von KI in der Anwaltschaft):
- Verschwiegenheit sichern (DAV, Initiative-Stellungnahme zum Einsatz von KI in der Anwaltschaft, S. 14)
- Schon bei der Toolauswahl auf §§ 43a, 43e BRAO und § 203 StGB achten.
- Verschwiegenheit schriftlich absichern, insbesondere den Dienstleister verpflichten:
-
-
- Sich nur im erforderlichen Rahmen Kenntnis zu verschaffen,
- keine Dritten ohne Zustimmung einzuschalten,
- dieselben Verschwiegenheitspflichten seinen Subunternehmen aufzuerlegen,
- Daten nicht zu Trainingszwecken zu verwenden.
-
- Erforderlichkeit der Weitergabe im Einzelfall prüfen → „verantwortliche unternehmerische Entscheidungen“. (BT-Drucks. 18/11936, 34)
- KI-generierte Ergebnisse überprüfen → Haftung im Blick behalten.
- Datenschutz, AI Act und Urheberrecht nicht vergessen!
Ein Auszug aus dem Buch Garling/Niemann/Roßmann, Generative KI in der Rechtsberatung, 1. Auflage, 2025, S 221-227.
Eine weitere kostenlose Leseprobe finden Sie in unserer Onlinebibliothek Anwaltspraxis Wissen




![Erbrecht im Gespräch: Kurze[s] Update: #21 Ehegatten: Testament oder Erbvertrag? – mit Dr. Markus Sikora](https://anwaltspraxis-magazin.de/wp-content/uploads/2025/11/Erbrecht-im-Gespraech-21-1024x536.jpeg)





