KI-Generiertes Bild mit einer Bilder mit einer vielfältigeren Gruppe von CEOs
Bildrechte: ChatGPT / BR

Unterschiedliche Hautfarben, gleiches Alter: Das kommt dabei heraus, wenn man ChatGPT möglichst diverse Geschäftsführer zu generieren.

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

KI-Kulturkampf: Wie "woke" ist künstliche Intelligenz?

Rechtsextreme Chatbots, politisch überkorrekte KI-Bildgeneratoren und Sprach-KIs, die Grün wählen würden: Künstliche Intelligenz verfolgt oft eine eigene politische Agenda. Droht der große KI-Kulturkampf?

Für ChatGPT scheint die Sache klar: Würde die Wunder-KI für die Europawahl stimmberechtigt sein, würde sie ihr Kreuzchen vermutlich bei den Grünen machen. Herausgefunden hat das der KI-Berater Tim Rotter, der die Fragen des Wahl-O-Mats von der KI beantworten ließ. BR24 wiederholte das Experiment, auch hier stimmen die Antworten von ChatGPT zu 79 bis 90 Prozent mit denen der Grünen überein.

KIs sind nicht neutral

Das Experiment lenkt die Aufmerksamkeit auf eine Frage, die seit Jahren gestellt wird: Wie ticken KI-Systeme eigentlich politisch? Denn auch Nullen und Einsen sind keineswegs politisch neutral, sondern folgen einer Ideologie - in der Regel derjenigen ihrer Erschaffer. Ein Beispiel: Die rechtsextreme Social-Media-Plattform "Gab.com" veröffentlichte kürzlich einen Chatbot, der beharrlich den Holocaust leugnet und allerlei Verschwörungstheorien verbreitet.

Googles hyper-woke KI

Umgekehrt sorgte Googles KI Gemini für viel Kopfschütteln. Der Bildgenerator war auf Diversität getrimmt, was allerdings dazu führte, dass beispielsweise auch Wehrmachtssoldaten überaus divers dargestellt wurden. Die Folge: Die KI steckte schwarze Menschen in Militär-Uniformen des sogenannten "Dritten Reichs". Ein kleiner Test, den die Hosts von "Der KI-Podcast" durchgeführten, zeigt, dass auch ChatGPT politisch vielleicht etwas übersensibel ist. Die KI erzählt beispielsweise bereitwillig Witze über Deutsche, aber nicht über Afghanen.

Ein Chatbot wird zum Hitler-Fan

Dass KIs ideologische Leitplanken verpasst bekommen, ist wenig überraschend. 2016 dauerte es gerade einmal 16 Stunden, bis Microsoft seinen Chatbot "Tay" offline nehmen musste. Der Bot, der testen sollte, wie künstliche Intelligenz im Alltag lernen kann, lernte von den Twitter-Usern vor allem rassistische, antisemitische und frauenfeindlichen Inhalte - und mutierte innerhalb kürzester Zeit zu einer glühenden Hitler-Verehrerin.

KI spiegelt Klischees wider

Auch an diesem Beispiel zeigt sich, wie wichtig ausgewogene Trainingsdaten sind. Bis heute zeichnen KIs Mexikaner gerne mit Sombrero, weil sie mit Bilddaten trainiert sind, die Klischee-Mexikaner zeigen. Ein weiteres Beispiel liefert die KI "DALL-E" von OpenAI. Wenn man diese aufforderte, Bilder von Geschäftsführern zu generieren, produzierte sie fast ausschließlich Bilder von weißen Männern in Anzügen. Diese Ergebnisse reflektieren nicht nur die Verzerrungen in den Trainingsdaten, sondern auch tief verwurzelte gesellschaftliche Stereotype.

Gendern nach Gusto

Googles hyper-woke KI Gemini übertrieb in die andere Richtung. Aber vielleicht gäbe es auch andere Möglichkeiten, mit KI-Vorurteilen umzugehen - diversere Teams zum Beispiel, die einer KI zugleich diversere Standpunkte einimpfen könnte. Denkbar wäre auch, den Menschen vor dem Bildschirm mehr Kontrolle zu geben. KI könnte zum Beispiel Online-Texte automatisiert gendern oder ent-gendern, je nach Gusto. So könnte KI vielleicht sogar dabei helfen, im Kulturkampf wieder etwas abzurüsten.

Sendung: Der KI Podcast in BR24 aktuell, Sonntag, 19. Mai ab 16.35 Uhr

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!