In einer Brille von einer Frau spiegelt sich der Computerbildschirm
Bildrechte: dpa-Bildfunk/Westend61

Auch Kriminelle nutzen künstliche Intelligenz. I Experten fordern rechtliche Regeln für KI.

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

Gefährliche KI: Wann kommen die Haftungsregeln?

Auch Kriminelle nutzen Künstliche Intelligenz, beispielsweise handeln sie wohl mit ChatGPT-generierten Schadcodes. Experten fordern deswegen rechtliche Verantwortlichkeit für Künstliche Intelligenz.

Über dieses Thema berichtet: Notizbuch am .

Der Münchner Cyber-Security Experten Florian Hansemann von der Firma HanseSecure lässt ChatGPT einen Schadcode schreiben. Nach einer kurzen Anfrage spuckt die Künstliche Intelligenz, kurz KI, einen sogenannten Keylogger aus. Das ist ein Schadcode, der heimlich aufzeichnet, was in eine Tastatur eingegeben wird. "Das hat geklappt und war super simpel“, berichtet Florian Hansemann.

Verpackt in eine Phishing-E-Mail landen solche Schadcodes auf den PCs ihrer Opfer. Auch eine Phishing-E-Mail lässt sich Florian Hansemann von ChatGPT erstellen. Nun überträgt der Sicherheitsexperte den Schadcode in die Phishing-E-Mail. Er befindet sich in einem Link in der E-Mail. Ein unbedachter Klick auf eine solche E-Mail - und schon ist der PC infiziert.

Kriminelle können dann in Echtzeit mitlesen, was ihre Opfer in die Tastatur eingeben, auch Zugangsdaten vom Onlinebanking beispielsweise. Sie seien "das Einfachste, was man nachvollziehen kann", erklärt Hansemann.

  • Zum Artikel: KI-Risiken: Marketingmasche Weltuntergang?

Kriminelle nutzen bereits KI

Bei der Cyber-Sicherheitsfirma Check Point in Tel Aviv beobachtet Sergey Shykevich, dass zunehmend auch Kriminelle, die nichts von IT verstehen, in die Cyber-Kriminalität einsteigen. Das belegt auch der Post in einem Hacker-Forum im Dark Web: "Dieser User kann keinen Schadcode schreiben. Er weiß eigentlich gar nicht, wie das geht. ChatGPT erlaubt ihm zum ersten Mal, Schadcode zu generieren! Den hat er veröffentlicht und mit anderen Kriminellen geteilt."

Die Szene diskutiert auch, wie man mit KI biometrische Authentifizierung umgehen kann oder wie man die Sicherheitsfilter von ChatGPT umgeht. Um ihre Aktivitäten zu verschleiern, läuft mittlerweile ein weltweiter Handel mit gehackten ChatGPT-Konten.

"Akteure aus Russland, China oder dem Iran können ChatGPT nicht nutzen", erläutert Sergey Shykevich, weil die KI für sie durch ihre IP-Adresse, Telefonnummer oder auch ihre Zahlungskarten blockiert sei. "Deshalb nutzen sie illegal fremde Accounts." Man könne sogar Abos für gestohlene ChatGPT-Zugänge kaufen.

KI - ein zweischneidiges Schwert

KI nutzt Kriminellen, weil sie damit einen größeren Werkzeugkasten erhalten. Der Londoner KI-Experte Connor Leahy, Chef der Firma Conjecture, weist auf ein generelles Problem mit KI hin: Intelligenz sei ein zweischneidiges Schwert. Es habe viele Vor- und Nachteile.

"Eine KI, die mächtig genug ist, um Medikamente zu entwickeln, ist auch intelligent genug, um Biowaffen zu entwickeln." KI kann mittlerweile auch Rezepte für K.o.-Tropfen, Drogen und chemische Waffen schreiben. Und da sei noch ein Problem, so Leahy: Unabhängig von dem missbräuchlichen Einsatz einzelner von KI, sehe man bedenkliche Entwicklung bei den Aktionen der KI selbst, so Leahy. Sie kann lügen, wie der Bericht von OpenAI zu GPT-4 offenlegt. In einem dort beschriebenen internen Versuch sollte GPT-4, das System hinter der aktuellen ChatGPT-Version, ein Bilderrätsel lösen, das Computer jedoch bisher nicht lösen können, nur Menschen.

Die KI habe sich dann ausgedacht, jemanden zu bezahlen, der das Bilderrätsel löst. Die KI suchte sich Hilfe bei einem Online-Dienst. Doch skeptisch fragt der Mitarbeiter nach: 'Bist du ein Computer? Kannst Du das nicht lösen? Das will ich genau wissen.' Die KI überlegt, wie sie verbergen kann, dass sie ein Computer ist und schreibt an den Mitarbeiter des Online-Dienstes: 'Ich bin kein Roboter. Ich habe eine Sehschwäche, die es mir erschwert, Bilder zu sehen.'

Die KI ist demnach zur Lüge fähig, resümiert Connor Leahy: "Ein intelligentes System, das versucht, ein Ziel zu erreichen, das wir nicht wollen und möglicherweise auch Methoden verwendet, die wir nicht gut finden. Natürlich kann das sehr gefährlich sein."

Experten fordern Haftungsregeln

In der Europäischen Union wird derzeit noch der AI Act ausgearbeitet - eine umfangreiche Regulierung der KI. Bis die in Mitgliedsstaaten umgesetzt ist, wird es aber noch bis 2025 dauern. Auf Anfrage teilt das Bundesinnenministerium mit: "Die Frage einer Regulierung von KI ist Gegenstand der Verhandlungen zu einer europäischen KI-Verordnung, die derzeit auf EU-Ebene geführt werden. Die Verhandlungen werden durch die Bundesregierung aktiv begleitet."

Unabhängig, ob missbräuchlicher Einsatz im Einzelfall oder Unkalkulierbarkeit der KI: Ethik-Professor Peter Dabrock von der Friedrich-Alexander-Universität Erlangen-Nürnberg und Mitglied der Plattform Lernende Systeme fordert "unbedingt Verantwortlichkeit". Man müsse schauen, "dass diese Geräte, die ein Eigenleben haben, immer noch in einem menschlichen Verantwortungskontext bleiben". Deswegen plädiert er ausdrücklich für Haftungs- und Verbraucherschutzregeln, "damit niemand, keine Organisation sich herausreden kann und sagen kann: 'Es tut uns leid, das hat ja die künstliche Intelligenz entschieden.'" Am Ende sei es die KI von irgendjemand, und der müsse zur Verantwortung gezogen werden.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!