Aufgeschlagenes Buch neben Computermonitor
Bildrechte: dpa-Bildfunk/Karl-Josef Hildenbrand

ChatGPT wurde schon als Co-Autor wissenschaftlicher Paper angegeben. Das sorgt in der Wissenschaft für Diskussionen (Symbolbild)

  • Artikel mit Audio-Inhalten

Darf ChatGPT wissenschaftliche Artikel schreiben?

Der Chatbot ChatGPT weiß unglaublich viel. So viel, dass er bereits wissenschaftliche Artikel mitverfasst hat. Nun ist in der Wissenschaft eine Diskussion entbrannt: Darf ChatGPT das überhaupt? Und falls ja: unter welchen Voraussetzungen?

Songs, Programmiercodes, Gedichte: Es gibt kaum etwas, was der Chatbot ChatGPT nicht schreiben kann. Und auch Akademiker bedienen sich seiner Dienste: Nun ist Chat GPT sogar als Co-Autor bei vier wissenschaftlichen Paper mit aufgeführt, wie das Wissenschaftsmagazin Nature berichtet.

In einem Fall ist das versehentlich geschehen und soll korrigiert werden. In den anderen drei Artikeln geht es um ChatGPT selbst - in einem davon genau um die Frage, ob ChatGPT in der Lage ist, einen wissenschaftlichen Beitrag zu schreiben. In der Wissenschaft ist nun eine Diskussion darüber entbrannt, ob ein Chatbot ein Co-Autor einer wissenschaftlichen Arbeit sein darf - oder nicht.

Kritik: Ein Chatbot kann keine Verantwortung übernehmen

Renommierte wissenschaftliche Fachmagazine wie Nature akzeptieren keine Beiträge von Chatbots: "Eine Autorenschaft ist immer damit verbunden, Verantwortung für die Arbeit zu übernehmen - und das können Sprachmodelle wie ChatGPT nicht", sagt Chefredakteurin Magdalena Skipper. Verantwortung auch im rechtlichen Sinne ist gemeint; denn eine künstliche Intelligenz (KI) kann man nicht verklagen.

Einsatz von ChatGPT muss klar gekennzeichnet werden

Einig sind sich die Wissenschaftler in einer Frage: Wenn man schon einen Text zusammen mit einer generativen KI erstellt, dann muss das auf jeden Fall klar gekennzeichnet werden; etwa als Werkzeug in einer Liste der verwendeten Materialien. "Die Verwendung von KI-generiertem Text ohne ordnungsgemäße Quellenangabe könnte als Plagiat angesehen werden", sagt Holden Thorp, Chefredakteur der Science-Zeitschriftenfamilie zur Zeitschrift Nature.

Doch dazu muss KI-generierter Text erst einmal erkannt werden. Das ist auch in Schulen ein Problem. Wie schwierig das ist, zeigt eine Untersuchung der Northwestern University im amerikanischen Chicago.

Plagiatssoftware erkennt ChatGPT-Texte nicht

Dort hat ein Forscherteam ChatGPT 50 wissenschaftliche Abstracts schreiben lassen und dann menschlichen Gutachtern einen Mix vorgelegt aus von Menschen verfassten und vom Chatbot erzeugten Abstracts. Die Gutachter stuften ein Drittel der ChatGPT-Texte als echt ein - obwohl sie sehr misstrauisch waren, weil sie wussten, dass einige Texte von der KI geschrieben worden waren.

Eine herkömmliche Plagiatssoftware, die in dem Versuch verwendet wurde, stufte alle KI-Texte als echt ein. Allerdings gibt es auch bereits eigene - ebenfalls auf künstlicher Intelligenz basierende - Tools wie den GPT-2 Output Detector, die darauf spezialisiert sind, KI-generierte Texte zu erkennen. Dieses Tool sei sehr gut darin gewesen, ChatGPT-generierte Texte zu erkennen, so Studienleiterin Catherine Gao. Eine KI kontrolliert dann sozusagen die andere KI.

ChatGPT kann nicht wissenschaftlich korrekt zitieren

Ein weiteres Problem ist der Umgang mit Quellen. "KI-generierte Texte haben derzeit Schwierigkeiten mit der korrekten Zitierweise, die für wissenschaftliche Arbeiten unabdingbar ist", sagt der ebenfalls an der Studie beteiligte Bio-Informatiker Yuan Luo. Es gibt auch immer wieder Berichte darüber, dass ChatGPT Quellen einfach erfindet, was eine wissenschaftliche Todsünde ist. Außerdem kann es vorkommen, dass ChatGPT unterschiedliche Antworten gibt, wenn man ein und dieselbe Frage mehrmals stellt.

Auch Wikipedia oft nützlich, aber nicht immer vertrauenswürdig

Vielleicht ist es am Ende wie bei Wikipedia: Auch dazu hieß es früher, dass man dieses Online-Lexikon auf keinen Fall benutzen dürfe, weil es zu wenig verlässlich sei. Und auch Wikipedia wurde nicht immer ehrlich eingesetzt.

Als Primärquelle nutzt man Wikipedia heute zwar immer noch nicht, aber als erste Anlaufstelle oder um sich schnell einen Überblick zu verschaffen schon. Und so wird man auch bei ChatGPT nach und nach herausfinden müssen, welche Rolle solche Systeme in der Wissenschaft einnehmen können - und welche nicht.

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!