Bayern 2 - Zündfunk

#failoftheweek Warum die künstliche Intelligenz ein großes Dummheits-Problem hat

Ein Facebook-Algorithmus bezeichnet schwarze Menschen als Primaten. Das zeigt, wie dumm künstliche Intelligenz immer noch ist, kommentiert Christian Schiffer.

Von: Christian Schiffer

Stand: 10.09.2021

Symbolbild: Künstliche Intelligenz | Bild: picture alliance / Zoonar | Alexander Limbach

Youtube. Ein kleiner Yachthafen in Stamford im US-Bundesstaat Connecticut. Fünf junge schwarze Männer wollen offenbar eine kleine Geburtsparty auf einem Boot schmeißen. Doch leider ist da dieser Rassist im Muscle-Shirt, der sich über irgendetwas aufregt und die fünf jungen Männer anpampt.

Das Video aus dem Juni 2020 endet damit, dass ein Schwarzer, ohne erkennbaren Grund, in Handschellen abgeführt wird. So weit, so skandalös. Diese Woche dann der nächste Skandal: Wer das Filmchen auf Facebook zu Ende schaute, wurde gefragt, ob man "weiterhin Videos über Primaten sehen möchte". Der Facebook-Algorithmus hatte schwarze Menschen offenbar mit Affen verwechselt. In dem Video zumindest ist kein einziger Affe zu sehen.

Künstliche Intelligenz ist of eine Blackbox

Facebook hat sich schnell entschuldigt und nun soll der Empfehlungsalgorithmus analysiert werden, damit so etwas nicht mehr vorkommt. Ob das gelingt, ist die große Frage. Denn künstliche Intelligenz ist oft eine Blackbox. Die Technik ist heute so komplex geworden, dass sich Fehler nicht mehr ohne Weiteres verstehen und korrigieren lassen.

YouTube-Vorschau - es werden keine Daten von YouTube geladen.

Google Apologizes After Mistakenly Tags Black People 'Gorillas' | Bild: India Today (via YouTube)

Google Apologizes After Mistakenly Tags Black People 'Gorillas'

2015 stuft die Google Bilderkennung Menschen mit dunkler Hautfarbe als Gorillas ein. Die Google-Techniker versprechen das Problem zu beheben und tatsächlich: Die KI erkennt danach nie wieder jemanden als Gorilla. Zwei Jahre später kommt heraus, warum: Google hat die Begriffe „Gorilla“, „Affe“ und „Schimpanse“ einfach gesperrt. Niemand wird also als Gorilla bezeichnet, keine Menschen, keine Tiere, keine Gorillas. Googles Bilderkennungsalgorithmus ist also vermutlich heute noch rassistisch - nur kriegt das niemand mehr mit.

Man kann nur spekulieren, was beim Facebook-Algorithmus schiefgelaufen sein könnte. Es ist bekannt, dass künstliche Intelligenz eigentlich ziemlich dumm ist und dass sie sich leicht auf Glatteis führen lässt. Nur ein Beispiel: Es gibt da die Geschichte, wonach künstliche Intelligenz mit Bildern von Wölfen trainiert wurde, um zu erkennen, was ein Wolf ist. Dann stellte man fest, dass der Algorithmus auch Huskys für Wölfe hielt. Der Grund: Sowohl Wölfe als auch Huskies werden in der Regel im Schnee fotografiert.

Die folgen von KI-Dummheit können gravierend sein

Die KI hatte nicht gelernt, was ein Wolf ist, sondern dass, wenn da irgendwo Schnee liegt, das graue, pelzige Etwas im Bild wohl ein Wolf ist, auch wenn es eigentlich gar nicht aussieht, wie ein Wolf. Nicht die Art wie das Tier aussah war also ausschlaggebend für Einordnung der KI, sondern der Bild-Hintergrund. Die Folgen von KI-Dummheit können gravierend sein.

YouTube-Vorschau - es werden keine Daten von YouTube geladen.

Wrongfully Arrested Because of Flawed Face Recognition Technology | Bild: ACLU (via YouTube)

Wrongfully Arrested Because of Flawed Face Recognition Technology

In Januar 2020 nehmen Polizisten Robert Julian-Borchak Williams fest. Eine Gesichtserkennung-KI hält den 42-jahre alten Familienvater für einen gesuchten Einbrecher – eine Verwechslung. Schon länger ist bekannt, dass die Algorithmen schwarze Menschen schlechter erkennen als weiße. Bekannt ist auch, dass künstliche Intelligenz nicht nur dumm ist, sondern auch Vorurteile reproduzieren kann. Zugleich aber wird immer wieder darüber nachgedacht, KI-gestützte Gesichtserkennung im öffentlichen Raum einzusetzen, um beispielsweise Terroristen zu erkennen. So lange künstliche Intelligenz so deppert ist, wie sie ist, sollte man das wohl besser lassen.