Smartphone mit geöffneter ChatGPT-Seite
Bildrechte: dpa-Bildfunk/Jessica Lichetzki

Wenn ChatGPT

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

KI-Gesetz der EU: Wird ChatGPT zur Hochrisiko-Anwendung?

Seit fast zwei Jahren tüftelt die EU an einem KI-Gesetz. Der Hype um Chatbots wirft die Arbeit über den Haufen, die EU muss nachbessern. Die spannende Frage: Wird ChatGPT als Hochrisiko-Anwendung eingestuft - mit entsprechend strengen Regeln?

Über dieses Thema berichtet: PULS mit ... am .

Die EU arbeitet schon seit zwei Jahren an einem Gesetz zur Künstlichen Intelligenz (KI). An Chatbots dachte damals noch keiner. Doch angesichts des Hypes um ChatGPT und Co. stellt sich die Frage: Wie können wir diese Anwendungen regulieren?

  • Zum Artikel "Wie ein Münchner Student zur Zielscheibe von Microsofts KI wurde"

In der EU soll nur vertrauenswürdige KI erlaubt sein

Ziel des KI-Gesetzes ist, dass Europäer darauf vertrauen können, dass die KI-Lösungen, die sie verwenden, vertrauenswürdig sind. Das heißt, dass die KI auf sichere und rechtskonforme Art eingesetzt wird und dass unsere Grundrechte gewahrt bleiben. Deswegen teilt die EU KI-Anwendungen in vier Risiko-Kategorien ein: Inakzeptabel, hoch, beschränkt und gering. Inakzeptable Anwendungen wären dann in Europa verboten, zum Beispiel ein Social-Scoring-System wie in China oder eine automatisierte Gesichtserkennung in Echtzeit.

Chatbots können alles mögliche schreiben: zum Beispiel Schulaufsätze, Rezepte, Gedichte oder Programmiercode. Aber eben auch Phishing-Mails, Malware oder Falschnachrichten. Generative KI kann also sowohl für gute Zwecke genutzt werden, als auch für schlechte.

Einige Europa-Abgeordnete befürchten, dass Text, den eine KI geschrieben hat, für einen von Menschen erstellten Text gehalten werden könnte. Und deswegen wollen sie KI-Systeme, die für verschiedene Zwecke eingesetzt werden können, als “Hochrisiko-Anwendungen” einstufen.

Kritiker befürchten ein de-facto-Verbot von Chatbots

Hochrisiko-Anwendungen müssen viele Auflagen erfüllen: Die Anbieter - also zum Beispiel Open AI - müssten offenlegen, mit welchen Daten sie ihre Programme trainiert haben. Sie müssten eine regelmäßige Risikoanalyse durchführen und garantieren, dass ihre Produkte europäische Sicherheitsvorschriften erfüllen. All diese Auflagen zu erfüllen, kostet Geld.

Kritiker sagen sogar, dass Chatbots de facto verboten wären, wenn sie als Hochrisiko-Anwendung eingestuft werden würden. Ob es so weit kommt, ist allerdings noch nicht gesagt: Zum einen versuchen Software-Hersteller wie Microsoft und Google diese Klassifizierung zu verhindern. Und auch einige konservative und liberale Politiker sind dagegen. Im Endeffekt müssen sich Kommission, Ministerrat und Parlament der EU auf eine gemeinsame Position einigen. Das soll aber noch in diesem Jahr passieren.

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!