Künstliche Intelligenz im Rechtsstreit: US-Anwalt wird bestraft

Ein ungewöhnlicher Vorfall hat kürzlich in den USA für Aufsehen gesorgt: Ein Anwalt und seine Kanzlei müssen eine Geldstrafe von 5000 US-Dollar zahlen, weil sie vor Gericht mit gefälschten Fällen argumentiert haben. Die Fälle wurden von einer Text-KI namens ChatGPT generiert. Die KI wurde als Werkzeug zur Unterstützung verwendet jedoch der Anwalt missachtete seine Kontrollpflicht und reichte falsche Informationen bei Gericht ein.



Der Fall und die Folgen


In einem Rechtsstreit in dem es um eine Verjährungsfrage ging legte der betreffende Anwalt eine Eingabe mit sechs Präzedenzfällen vor die gegen eine Verjährung sprachen. Diese Fälle wurden aber von ChatGPT erzeugt und stellten sich im Laufe des Verfahrens als komplett erfunden heraus. Als die Anwälte der Gegenseite den Quellen in der Eingabe nachgehen wollten, fanden sie nichts. Daraufhin verschickte der Anwalt vermeintliche Aktenauszüge die ähnlich wie von ChatGPT erzeugt worden waren & Verweise auf weitere erfundene Gerichtsfälle enthielten. Der Anwalt gab schließlich zu, dass er sich von ChatGPT hatte "unterstützen" lassen.



Der zuständige Richter stellte in seiner Entscheidung klar: Der technologische Fortschritt zwar alltäglich sei und dass es an sich nichts Falsches daran sei, ein zuverlässiges Werkzeug der synthetischen Intelligenz zur Unterstützung zu verwenden. Aber Anwälten obliege ebenfalls eine Kontrollpflicht, dass ihre Einreichungen korrekt seien. Mit seiner Handlungsweise habe der Anwalt die Zeit und das Geld der Gegenpartei verschwendet und auch die Zeit des Gerichts von anderen Aufgaben abgezogen.






Kommentare

Die KI-Technologie hat ohne Zweifel viele Vorteile und wird ebenfalls im Rechtsbereich immer häufiger eingesetzt. Aber wie dieser Fall zeigt; gibt es auch Risiken. Ein generativer Chatbot wie ChatGPT kann zwar aus Ausgangsmaterial neu und echt scheinendes Material erzeugen jedoch es kann auch frei erfunden sein. Es ist deshalb wichtig, dass Anwälte und alle anderen Nutzer von KI-Tools ihre Kontrollpflicht ernst nehmen und ihre Ergebnisse kritisch überprüfen. Das eigene Urteilsvermögen kann man damit derzeit nicht ersetzen.


Anzeige