Ein Bundesrichter in New York, USA, hat die Anwälte Peter LoDuca und Steven Schwartz sowie ihre Kanzlei Levidow, Levidow & Oberman zu einer Geldstrafe von jeweils 5000 US-Dollar verurteilt. Die Anwälte wollten sich ihr Leben leichter machen und ließen von ChatGPT juristische Dokumente erstellen. Nach der Einreichung bei Gericht stellte man erstaunt fest, dass in den Dokumenten erfundene Gerichtsentscheidungen offenbar mit Richtern zitiert wurden.
Die Anwälte hatten nicht bemerkt, dass ChatGPT keine Kenntnisse über die passenden Urteile besaß und „halluzinierte“. Die Anwälte hatten Klage gegen die Fluggesellschaft Avianca eingereicht. Ihr Mandant habe sich bei einem Flug im Jahr 2019 durch ein herunterfallendes Metalltablett schwer am Knie verletzt. Passend zu ihren Vorwürfen hatten sie in ihren Dokumenten Verweise auf frühere Gerichtsurteile angeführt, die jedoch in Wirklichkeit nie existiert hatten.
Ertappt – aber das Spiel ging weiter
Der Richter missbilligte das Verhalten der Anwälte deutlich. Sie hätten ihre beruflichen Pflichten vernachlässigt. Besonders empörte ihn anscheinend, dass die Anwälte weiterhin hinter den falschen Urteilen standen, selbst nachdem das Gericht deren Existenz infrage gestellt hatte. Offenbar wollten sich die Anwälte, nachdem sie ertappt wurden, die Peinlichkeit ersparen und taten so, als ob alles korrekt wäre. Diesen Fehler nicht offen zuzugeben, hätte ihnen die Strafhöhe möglicherweise erspart.
Aber sie blieben bei ihren irreführenden Angaben. Das Gericht sah darin Böswilligkeit. Der Richter sah grundsätzlich kein Problem darin, neue Technologien als Hilfsmittel einzusetzen. Doch letztlich trage der Mensch die Verantwortung für die Korrektheit der von ihm erstellten Texte. Die Anwälte hätten also durchaus ChatGPT verwenden können, hätten dann jedoch die aufgeführten Urteile überprüfen müssen.
Der Richter fand es auch nicht besonders lustig, dass durch die Täuschung wertvolle Zeit und Ressourcen durch die gegnerische Partei und das Gericht verschwendet wurden. Ebenso bestehe das Risiko, das Vertrauen in die Integrität des Rechtssystems zu untergraben.
Steven Schwartz versuchte sich vor Gericht damit zu verteidigen, dass er ChatGPT als eine Art Super-Suchmaschine betrachtet habe. Ihm sei nicht in den Sinn gekommen, dass die Software falsche Fälle erfinden könnte. Er sei auch davon ausgegangen, dass die von ChatGPT genannten Urteile möglicherweise schwer zugänglich oder unveröffentlicht seien. Das würde aber bedeuten, dass er sie sehr wohl gesucht und nicht gefunden hätte und es einfach dabei beließ.
Der Richter ließ sich von dieser Erklärung nicht beeindrucken, denn der Anwalt hatte die Möglichkeit ignoriert, dass die zitierten Fälle nicht existierten. Pikanterweise verfügte das Gericht, dass die Anwälte jeden Richter, der fälschlicherweise als Verfasser der gefälschten Urteile genannt wurde, über ihre Sanktionen informieren müssen.
Pressemeldungen zum Thema:
- Judge sanctions lawyers for brief written by A.I. with fake citations, CNBC, 22.06.2023
- Sanctions ordered for lawyers who relied on ChatGPT artificial intelligence to prepare court brief, Courthouse News Service, 22.06.2023
👉 Auf Mastodon kommentieren