Der Versuch eines New Yorker Anwalts, das Sprachmodell ChatGPT bei der Recherche für einen Fall zu verwenden, ist auf spektakuläre Weise schiefgegangen. Der Anwalt vertritt einen Passagier, der Klage gegen die Fluggesellschaft Avianca eingereicht hat, weil er von einem Servierwagen am Knie verletzt worden sein soll. Die Airline beantragte, die Klage abzuweisen. Darauf reagierte der Klägeranwalt mit einem Gegenantrag, in dem er auf vermeintliche Präzedenzfälle verwies: Fälle wie "Petersen gegen Iran Air" oder "Martinez gegen Delta Airlines". Alles mit Aktenzeichen dokumentiert. Die Avianca-Anwälte konnten jedoch weder die Urteile noch die Aktenzeichen finden. Denn: Es gibt sie nicht. ChatGPT hat das alles erfunden.
Anwalt: ChatGPT ist eine unzuverlässige Quelle
Das hat inzwischen auch der Klägeranwalt eingeräumt: In einer eidesstattlichen Erklärung an das New Yorker Gericht gab der Anwalt zu, dass er ChatGPT für seine juristischen Recherchen verwendet habe - "eine Quelle, die sich als unzuverlässig erwiesen hat". Der Chatbot habe Texte angeblicher Urteile ausgegeben, die seine Kanzlei dem Gericht im April vorlegte. Diese Dokumente enthielten ihrerseits auch Verweise auf Fälle, die sich als frei erfunden herausstellten, wie die "New York Times" schreibt.
Der Anwalt erklärte gegenüber Richter P. Kevin Castel, er habe nicht die Absicht gehabt, das Gericht oder die Fluggesellschaft zu täuschen. Er sagte, er habe ChatGPT nie benutzt und "war sich daher der Möglichkeit nicht bewusst, dass der Inhalt falsch sein könnte". Er habe das Programm sogar gebeten, zu überprüfen, ob die Fälle echt seien - was der Chatbot bejaht habe. Er bedauere sehr, dass er sich auf ChatGPT verlassen habe und werde dies in Zukunft nicht mehr tun, ohne die Antworten zu verifizieren.
Richter spricht von "beispiellosem" Fall
Richter Castel schrieb, dass er mit einem "beispiellosen Umstand" konfrontiert worden sei: einer juristischen Vorlage voller "gefälschter Gerichtsentscheidungen und mit gefälschten Zitaten". Er ordnete für den 8. Juni eine Anhörung an, um mögliche Sanktionen zu erörtern.
Dieser Fall ist ein weiteres Beispiel dafür, dass Sprachmodelle wie ChatGPT dazu neigen, Inhalte zu erfinden. Diese Eigenschaft ist systemimmanent: Generative künstliche Intelligenz wie ChatGPT wird auf Basis gewaltiger Datenmengen trainiert und bildet Sätze, indem sie Wort für Wort schätzt, wie sie weitergehen sollten. Es handelt sich also um eine Art Wahrscheinlichkeitsrechnung. Dabei gibt es eben keine hundertprozentige Wahrscheinlichkeit, dass die Inhalte auch wirklich stimmen.
Mit Informationen von dpa
Das ist die Europäische Perspektive bei BR24.
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!