Laptop, auf dem die Website von ChatGPT zu sehen ist, daneben ein Smartphone
Bildrechte: dpa-Bildfunk/Hannes P Albert

ChatGPT neigt dazu, Inhalte zu erfinden. Jüngstes Beispiel: Gerichtsurteile, die es gar nicht gibt.

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

ChatGPT erfindet Urteile: Anwalt blamiert sich vor US-Gericht

Es ist bekannt, dass ChatGPT dazu neigt, Inhalte zu erfinden. Diese Erfahrung hat nun auch ein US-Anwalt gemacht. Vor Gericht präsentierte er eine Reihe vermeintlicher Präzedenzfälle, die ChatGPT jedoch allesamt erfunden hatte.

Der Versuch eines New Yorker Anwalts, das Sprachmodell ChatGPT bei der Recherche für einen Fall zu verwenden, ist auf spektakuläre Weise schiefgegangen. Der Anwalt vertritt einen Passagier, der Klage gegen die Fluggesellschaft Avianca eingereicht hat, weil er von einem Servierwagen am Knie verletzt worden sein soll. Die Airline beantragte, die Klage abzuweisen. Darauf reagierte der Klägeranwalt mit einem Gegenantrag, in dem er auf vermeintliche Präzedenzfälle verwies: Fälle wie "Petersen gegen Iran Air" oder "Martinez gegen Delta Airlines". Alles mit Aktenzeichen dokumentiert. Die Avianca-Anwälte konnten jedoch weder die Urteile noch die Aktenzeichen finden. Denn: Es gibt sie nicht. ChatGPT hat das alles erfunden.

Anwalt: ChatGPT ist eine unzuverlässige Quelle

Das hat inzwischen auch der Klägeranwalt eingeräumt: In einer eidesstattlichen Erklärung an das New Yorker Gericht gab der Anwalt zu, dass er ChatGPT für seine juristischen Recherchen verwendet habe - "eine Quelle, die sich als unzuverlässig erwiesen hat". Der Chatbot habe Texte angeblicher Urteile ausgegeben, die seine Kanzlei dem Gericht im April vorlegte. Diese Dokumente enthielten ihrerseits auch Verweise auf Fälle, die sich als frei erfunden herausstellten, wie die "New York Times" schreibt.

Der Anwalt erklärte gegenüber Richter P. Kevin Castel, er habe nicht die Absicht gehabt, das Gericht oder die Fluggesellschaft zu täuschen. Er sagte, er habe ChatGPT nie benutzt und "war sich daher der Möglichkeit nicht bewusst, dass der Inhalt falsch sein könnte". Er habe das Programm sogar gebeten, zu überprüfen, ob die Fälle echt seien - was der Chatbot bejaht habe. Er bedauere sehr, dass er sich auf ChatGPT verlassen habe und werde dies in Zukunft nicht mehr tun, ohne die Antworten zu verifizieren.

Richter spricht von "beispiellosem" Fall

Richter Castel schrieb, dass er mit einem "beispiellosen Umstand" konfrontiert worden sei: einer juristischen Vorlage voller "gefälschter Gerichtsentscheidungen und mit gefälschten Zitaten". Er ordnete für den 8. Juni eine Anhörung an, um mögliche Sanktionen zu erörtern.

Dieser Fall ist ein weiteres Beispiel dafür, dass Sprachmodelle wie ChatGPT dazu neigen, Inhalte zu erfinden. Diese Eigenschaft ist systemimmanent: Generative künstliche Intelligenz wie ChatGPT wird auf Basis gewaltiger Datenmengen trainiert und bildet Sätze, indem sie Wort für Wort schätzt, wie sie weitergehen sollten. Es handelt sich also um eine Art Wahrscheinlichkeitsrechnung. Dabei gibt es eben keine hundertprozentige Wahrscheinlichkeit, dass die Inhalte auch wirklich stimmen.

Mit Informationen von dpa

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!