Diese Fehler verraten, dass du ChatGPT für deine Hausarbeit nutzt

KI als Recherchetool zu nutzen, ist an den meisten Unis nicht verboten. Brenzlig wird es erst, wenn ein Großteil deiner Hausarbeit von einer KI verfasst wird. In diesem Beitrag erklärt dir unsere Autorin Stine, woran man einen von ChatGPT erstellten Text enttarnen kann.

Photo by Vinu00edcius Trindade on Pexels.com

Manchmal steht man vor juristischen Fragestellungen im Studium und findet einfach keinen Einstig in die Materie. Da kommt einem schnell in den Sinn die allwissende KI zu fragen. Meistens klingen die Antworten bei dem ersten Lesen auch so überzeugend, dass man sich fragt: „wozu überhaupt noch anstrengen?“. Und weil es so viel einfacher ist, liegt der Wunsch nahe, die Hausarbeit doch gleich vollständig von einer KI schreiben zu lassen. Warum das gerade mit Hilfe von ChatGPT im Jurastudium keine gute Idee ist, erzähle ich dir jetzt. 

Spiegelstriche

Noch nie habe ich in meinen juristischen Hausarbeiten oder anderen verschriftlichten Werken mit Spiegelstrichen gearbeitet. Frage ich aber ChatGPT nach einer besseren Formulierung, baut das Programm in nahezu jeden Absatz mindestens einen ein. Manchmal ist das ganz sinnvoll, meist tut es aber auch ein Komma.

Quellen

ChatGPT kann keine zuverlässige Quellenarbeit im Jurastudium ersetzen. Wer einer Angabe dieser KI ohne eigene Recherche glaubt, ist meist schon durchgefallen. Das Programm vertauscht Absätze, Seitenzahlen, Gerichte und kann Primär- nicht von Sekundärquellen unterscheiden. Gar nicht so selten existieren die angegebenen Quellen überhaupt nicht. Weist man das Programm darauf hin, dass die Quelle in dieser Form nicht existiert, denkt es sich kurzerhand einen neuen Fundort aus. 

Zweifelhafte juristische Schlüsse

Dieser Fehler zeigt besonders deutlich, warum KI (noch) keine Juristen ersetzen kann. Insbesondere ChatGPT kann nicht juristisch „denken“. Trotzdem liest man regelmäßig gut klingende und sauber argumentierte Schlussfolgerungen aus Urteilen oder Gesetzeswortlauten, die bei genauerer Betrachtung wenig Sinn ergeben. Dementsprechend sollte man jede juristische Behauptung von ChatGPT überprüfen. 

In meinem Fall hat die KI sich einmal eine zivilprozessrechtliche Maxime ausgedacht. Kurz war ich davon sehr überzeugt und hätte mich beinahe vor meinem ausbildenden Richter lächerlich gemacht. Ein Glück bin ich dem Ganzen noch rechtzeitig auf die Schliche gekommen. 

Kein Faktencheck

ChatGPT checkt keine Fakten. Gerade bei juristischen Fragestellungen fällt auf, dass das Programm im Wesentlichen auf freizugängliche Quellen zurückgreift. Inhalte hinter Paywalls bleiben außen vor. Dadurch gibt die KI ungefiltert alle im Internet frei zugänglichen Meinungen wieder, ohne deren Qualität oder Tragfähigkeit zu prüfen. Das Bild, dass das Programm von bestimmten Ansichten zeichnet, weicht daher häufig signifikant vom tatsächlichen Meinungsbild in Fachliteratur und Rechtsprechung ab. Das liegt an der Arbeitsweise der KI. Diese filtert die gefundenen Informationen gerade nicht nach wissenschaftlicher Qualität, sondern eher nach quantitativen Kriterien.

Überperfekte Sprache

Fragt man die KI wie sie eine Formulierung findet oder ob sie Verbesserungsvorschläge hat, antwortet diese häufig mit nahezu gleichlautenden Sätzen, die nur geringfügig abweichen. Selbst Sätze die ChatGPT erstellt hat, werden wieder abgeändert. Ob das immer zur Verständlichkeit und Nachvollziehbarkeit des Geschrieben beiträgt, wage ich zu bezweifeln. 

In erster Linie führt es eher zur Verunsicherung derjenigen, die ohnehin schon nach der „schönsten“ Formulierung suchen. Teilweise kann das Programm wirklich gut formulieren, aber man sollte sich nicht von den eigenen stilistischen Ansprüchen abbringen lassen. Manchmal kritisiert ChatGPT nur, weil keine Vorschläge keine Option sind. 

Außerdem lassen überperfekte Formulierungen schnell auf die Nutzung von KI schließen. Vor allem orthographische und stilistische Fehler unterlaufen schließlich jedem Menschen.

Screenshot

Fehlende Entscheidungsfreude

ChatGPT bezieht nie Stellung. Bei der Nutzung des Programms fällt die sprachliche Vorsicht auf. Klare juristische Aussagen findet man selten. Stattdessen wird fast alles relativiert. Das klingt zunächst wissenschaftlich, stellt aber keine klare Entscheidung in den Mittelpunkt. 

Gerade in Hausarbeiten im Jurastudium wird erwartet, dass man eine klare Position. Die Texte wirken zwar sauber formuliert, bleiben aber inhaltlich unentschlossen. 


Sich Inspiration von ChatGPT für die Hausarbeit oder andere juristische Fragestellungen zu holen kann sinnvoll sein, sollte aber niemals ungeprüft übernommen werden. Teilweise ist die KI so überzeugt von ihrer eigenen Ansicht, dass sie auch auf mehrmaligen Hinweis nicht davon abrückt. Das sollte dich jedoch nicht beirren. Besonders in letzter Zeit habe ich häufiger das Gefühl, dass ich in juristischen Fragestellungen klüger bin als ChatGPT und dass zumindest meine Quellenarbeit, die des Programms um Meilen übertrifft. Gleiches gilt übrigens für die Planung von Reisen 😉

Welche Fehler hast du schon mal mit ChatGPT gemacht? 

Folge uns auf Instagram @Goldwaage für mehr Tipps und Erfahrungen rund um das Jurastudium.

Kommentar verfassen