Mein Anwalt, die KI?! So beeinflusst AI schon jetzt den juristischen Arbeitsalltag

Unser Autor Robert ist gerade Anwalt geworden und im Alltag mit den neuen Möglichkeiten von KI konfrontiert. In diesem Beitrag geht er den Chancen und Risiken auf den Grund – und verrät auch, welche fatalen Folgen der falsche Einsatz von KI haben kann.

Wer aktuell in Kanzleien als BerufseinsteigerIn anfängt, hat eine gute Chance, in seinen ersten Tagen das Folgende so oder so ähnlich zu hören:

„Du bist hier, um nachzudenken, denn recherchieren und zusammenschreiben kann ja bald auch die KI.“

Warum dann trotzdem noch junge AnwältInnen und wissenschaftliche MitarbeiterInnen eingestellt werden, scheint vor diesem Hintergrund mysteriös.

Was jedoch allgemein feststeht: Künstliche Intelligenz verändert juristische Arbeitsprozesse. Potentielle Anwendungen reichen inzwischen von automatisierter Dokumentenanalyse über Vertragsprüfung und Recherche bis hin zu ersten Ansätzen von Entscheidungsentwürfen. Während internationale Großkanzleien KI-Systeme bereits produktiv einsetzen oder sogar selbst entwickeln, stehen Behörden und kleinere Kanzleien noch am Anfang dieser Transformation. Die Debatte wird häufig von Effizienzversprechen dominiert. Tatsächlich wirft der Einsatz von KI jedoch komplexe datenschutzrechtliche Fragen auf, die die Verbreitung in der Arbeitswelt hemmen.

Foto von John Diez von Pexels: https://www.pexels.com/de-de/foto/notizbuch-buro-mauer-wand-7578202/

Pssst! Nicht die Geheimhaltung vergessen

Im juristischen Umfeld berührt der Einsatz KI-gestützter Systeme unmittelbar einen Kern anwaltlicher Berufsausübung, die Verschwiegenheitspflicht. Nach § 43a Abs. 2 BRAO sowie § 203 Abs. 1 Nr. 3 StGB sind Rechtsanwältinnen und Rechtsanwälte zur strikten Geheimhaltung mandatsbezogener Informationen verpflichtet. Sobald sensible Sachverhalte in cloudbasierte KI-Systeme von Drittanbietern eingegeben werden, stellt sich die Frage, ob eine unzulässige Offenbarung gegenüber Dritten vorliegt.

Besonders problematisch sind Konstellationen, in denen Daten auf Servern außerhalb der Europäischen Union verarbeitet werden oder unklar bleibt, ob eine Nutzung zu Trainingszwecken erfolgt. Schnell mal die chaotischen 40 Seiten unsortierter Informationen des Mandanten über den privaten ChatGPT-Account auswerten lassen, dürfte bei Bekanntwerden zu erheblichen berufsrechtlichen Folgen und Haftungen führen. Auch wenn bisher keine entsprechenden Haftungsfälle in Deutschland allgemein bekannt sind, führt dieses Risiko zumindest bei größeren Kanzleien dazu, dass oftmals strikte Verbote der Nutzung privater Chatbots, sog. Large Language Models (LLMs) bestehen. Dies verhindert eine faktische Nutzung zwar nicht unbedingt, wälzt aber zumindest die Verantwortung auf die ArbeitnehmerInnen ab.

Hinzu kommt, dass juristische Tätigkeit regelmäßig besondere Kategorien personenbezogener Daten im Sinne von Art. 9 DSGVO betrifft – etwa Gesundheitsdaten, strafrechtliche Vorwürfe oder finanzielle Informationen. Und welche Hürden der Umgang mit Datenschutz allgemein bereitet, ist mittlerweile auch juristischen Laien bekannt.

Peinliche Halluzinationen – Von Urteilen, die es nicht gibt

Ein weiteres, mittlerweile auch der Rechtsprechung angelangtes, Problem sind sogenannte „Halluzinationen“ generativer KI-Systeme. Diese können überzeugend formulierte, aber inhaltlich falsche Rechtsprechungsnachweise oder Normverweise produzieren. Jüngst führte dies sogar beim LG Frankfurt dazu, dass eine Berufung zurückgenommen wurde, weil die diese tragenden vermeintlichen BGH-Urteile nicht mit diesem Inhalt existierten.[1]

Die Verantwortung für die Richtigkeit eines Schriftsatzes liegt stets bei der unterzeichnenden Person. KI ist ein Werkzeug, berufsrechtlich belangt wird aber am Ende eine Richterin oder ein Anwalt, der seine Quellen nicht kontrolliert hat.

Unfairer Wettkampf – KI in kleinen Kanzleien oder Behörden

Während große Wirtschaftskanzleien über eigene IT-Abteilungen, Innovationsbudgets und spezialisierte Legal-Tech-Teams verfügen, um eigene datenschutzkonforme KI-Systeme zu entwickeln und implementieren[2], ist die Situation in Behörden und kleineren Kanzleien strukturell anders gelagert.

Behörden sind in komplexe Vorgaben des Bundes- und Landesdatenschutzrechts eingebunden. Jede größere Softwareanschaffung erfordert Ausschreibungen, Sicherheitsprüfungen und häufig Zertifizierungen nach BSI-Standards, da hier regelmäßig Daten von nationaler Relevanz verarbeitet werden. Hinzu treten haushaltsrechtliche Restriktionen und Mitbestimmungsrechte von Personalvertretungen. Entscheidungsprozesse sind daher zwangsläufig langsamer und stärker formalisiert. Der Einsatz selbstlernender Systeme, deren Funktionsweise nicht vollständig nachvollziehbar ist, kollidiert zudem mit dem verwaltungsrechtlichen Gebot der Nachvollziehbarkeit und Begründbarkeit von Entscheidungen. Dies sind zumindest einige der Gründe, die neben fehlenden personellen Kapazitäten und finanziellen Ressourcen zur Lizenzierung bestehender Modelle angeführt werden.

Kleinere Kanzleien sehen sich ähnlichen wirtschaftlichen und organisatorischen Hürden gegenüber. Oft fehlt es an technischer Infrastruktur und an Ressourcen für die Integration entsprechender Systeme. Ein Rückgriff auf allgemeine Systeme wie ChatGPT zur umfassenden Arbeit mit mandantenbezogenen Daten ist aus den oben stehenden Gründen ausgeschlossen. Was aber aus eigener Erfahrung regelmäßig stattfindet, ist der Einsatz von Privataccounts zu LLMs beispielsweise für die Recherche von Normen oder Gesetzesbegründungen auf den Servern des Bundestages, die über Google nur mit erheblichem Aufwand zu finden sind. Ein solcher Umgang wird kanzleiseitig oft geduldet, wenn keine Mandatsdaten preisgegeben werden und bisher keine lizenzierten Systeme hausintern zur Verfügung stehen.

Wie jedoch in diesem Beitrag bereits erwähnt, hat jede/r mit einem Beck-Online-Zugang mittlerweile Zugriff auf den Beck-Chat. Dieser ermöglicht die Recherche nach Urteilen und Aufsätzen, auf die ChatGPT und Co. aufgrund der umfassenden Paywall des Beck-Verlages keinen Zugriff haben. Auch hier scheint die Nutzung im Kreis der Anwältinnen und Anwälte nach meinem persönlichen Eindruck bisher überschaubar.

Aus der Vogelperspektive zeichnet sich hier aber die Gefahr einer technologischen Divergenz im Rechtsmarkt ab.  Großkanzleien steigern Effizienz in der Recherche und Skalierbarkeit in Form von riesigen Schriftsätzen oder weitgehend automatisierten Massenverfahren wie bei den sog. „Dieselklagen“ gegen VW, während kleinere Einheiten Gefahr laufen, strukturell zurückzufallen. Das Problem, von einer KI „über den Haufen geschrieben“ zu werden stellt sich jedoch insbesondere auf staatlicher Seite. Denn ohne digitale Waffengleichheit droht hier insbesondere der ohnehin belasteten Justiz eine Überwältigung durch Verfahren, die ohne Sortierung durch KI kaum zu überblicken sind.[4]

KI nimmt dir den Job weg? Auswirkungen auf Berufseinsteiger

Besonders sensibel ist die Frage nach den Konsequenzen am Arbeitsmarkt. Traditionell beginnen juristische Karrieren mit den Eingangs erwähnten Tätigkeiten: Aktenauswertung, Literatur- und Rechtsprechungsrecherche, Entwurf einfacher Schriftsätze oder Teile von Due-Diligence-Prüfungen. Genau diese in der Herangehensweise standardisierten Tätigkeiten sind durch KI besonders gut automatisierbar.

Neben den drohenden Kommentaren an NeueinsteigerInnen, dass Sie sich ja freuen könnten, trotz KI noch angestellt worden zu sein, zeigt sich bisher auf dem Arbeitsmarkt keine signifikante Veränderung der Einstellungszahlen von wissenschaftlichen Mitarbeitern und Associates. Dies gilt im Übrigen für große und kleine Kanzleien wie auch den öffentlichen Dienst. Vielfach wird dies jedoch zurückgeführt auf eben jene schleppende Etablierung umfassend einsetzbarer KI-Systeme in Kanzleien und für die Zukunft eine Reduzierung des „Unterbaus“ an NachwuchsjuristInnen prognostiziert.[5]

Langfristig entstünde dabei jedoch ein Ausbildungsparadox. Die routinemäßige Fallbearbeitung bildet neben zwischenmenschlichen Kompetenzen traditionell das Fundament juristischer Expertise. Wird diese Phase der Routinearbeit teilweise automatisiert, besteht die Gefahr, dass praktische Erfahrungswerte fehlen. Diese sind aber für komplexe Mandate oder auch als Erfahrungspool für richterliche Entscheidungen unerlässlich.

Es spricht also vieles dafür, dass es weniger zu einer Verdrängung als vielmehr zu einer Qualifikationsverschiebung kommen wird. Gefragt sein werden junge Juristinnen und Juristen, die neben den originär menschlichen Fähigkeiten wie Beweiswürdigung und Mandatsakquise auch technologische Werkzeuge souverän einsetzen, ihre Grenzen erkennen und regulatorische Rahmenbedingungen mitgestalten können. Und hierfür seid ihr als Lesende nach dieser KI-Themenwoche schon solide aufgestellt!

Wenn dir dieser Beitrag gefallen hat, teile ihn gerne und folge uns auf Instagram @goldwaage.jura.


[1] LG Frankfurt a. M., Beschluss vom 25.9.2025 – 2-13 S 56/24.

[2]  https://cms.law/de/deu/news-information/launch-der-europaeischen-rechts-ki-noxtua

[3] https://goldwaagejura.com/2026/02/23/3-geniale-alternativen-zu-chatgpt-furs-jurastudium/

[4] https://www.lto.de/recht/justiz/j/warum-wir-mehr-richter-staatsanwaelte-brauchen-justiz-ueberlastung-ki-gerichte-arbeit

[5] https://rsw.beck.de/aktuell/daily/meldung/detail/nachwuchs-jura-branche-ki-kanzleien-arbeitswelt

Kommentar verfassen