BR Fernsehen - puzzle


2

Künstliche Intelligenz und Rassismus Rassismus durch Algorithmen

Oft ist es uns nicht bewusst, doch viele Entscheidungen werden bereits von Maschinen getroffen, mithilfe der sogenannten "Künstlichen Intelligenz". Algorithmen entscheiden, wer welche Werbung, welche Stellenanzeige, welches Wohnungsangebot bekommt und sogar, ob jemand kreditwürdig ist. Zwar urteilen Algorithmen nicht nach Meinung und Gefühl, doch diskriminierend können sie dennoch sein.

Von: Katharina Wysocka

Stand: 26.05.2020

Eine Maschine entscheidet objektiv – das möchten wir glauben. Doch Algorithmen können diskriminieren. Studien haben gezeigt: Menschen mit Migrationsgeschichte werden als weniger kreditwürdig eingestuft. Über soziale Plattformen bekommen sie Stellenanzeigen für weniger qualifizierte Jobs oder die schlechteren Wohnungsangebote. Das Rückfallrisiko von Gefängnisinsassen mit Migrationshintergrund wird von Algorithmen höher eingeschätzt, und Polizeicomputer verdächtigen sie häufiger.

Am Deutschen Forschungszentrum für künstliche Intelligenz arbeiten Wissenschaftler auch daran, künstliche Intelligenz, kurz KI, fair zu gestalten. Entscheidend dabei sind die Daten, mit denen Computer arbeiten.

"Wenn sozusagen alte weiße Männer entscheiden, über welche Daten trainiert wird, und dann bestimmte Aspekte der Bevölkerung nicht berücksichtigt werden oder nicht angemessen berücksichtigt werden, dann enthält das KI-System die gleichen Vorurteile, weil es mit den vorurteilsbehafteten Daten trainiert wurde. Und insofern setzen sich dann diese in Sachen einfach direkt weiter fort."

Prof. Philipp Slusallek, Deutsches Forschungszentrum für künstliche Intelligenz

So entsteht durch Algorithmen eine neue Art von Diskriminierung durch Daten. Denn Systeme hinterfragen nicht die Aussagekraft von Daten, sie erkennen lediglich Muster der Vergangenheit und erstellen damit Korrelationen, die diskriminierende Ergebnisse liefern können.

Zum Beispiel, wenn Algorithmen die Kreditwürdigkeit voraussagen: Dabei prüft die Maschine nicht den Einzelfall, sondern abstrakte Daten, die auf dem Verhalten anderer Personen mit ähnlichen Merkmalen beruhen, wie Geschlecht, Schulabschluss, Muttersprache oder Wohnort. Da Menschen mit Migrationsgeschichte häufiger in weniger guten Gegenden wohnen, kann schon dies zur Kreditunwürdigkeit führen und so diskriminieren.

Oder bei Ermittlungsverfahren: Programme zur automatischen Gesichtserkennung identifizieren nicht-weiße Gesichter regelmäßig falsch.

An der EU-Grenze wird automatische Gesichtserkennung sogar eingesetzt, um zu beurteilen, ob Einreisewillige die Wahrheit sagen. Das Projekt ist weitgehend von der europäischen Kommission finanziert, es wird aber kritisiert, rassistische Vorurteile zu bedienen.

Für die NGO "European Digital Rights" in Brüssel untersucht Sarah Chander das diskriminierende Potential von KI. Gefährlich wird es, weil wir oft glauben, dass Entscheidungen durch Algorithmen immer richtig sind, sagt sie.

"Wenn wir nicht die Notwendigkeit sehen, diese Entscheidungen infrage zu stellen, ist es weniger wahrscheinlich, dass wir die Fehler, die diese Systeme machen werden, anfechten. Diese Systeme treffen Entscheidungen auf Grundlage von Daten, die von Menschen erzeugt werden, also werden sie auch Fehler machen, etwa bei der Vorhersage, wo Verbrechen stattfinden oder ob eine Person eine Krankheit hat."

Sarah Chander, European Digital Rights

Die EU arbeitet noch an Regeln für KI. Prof. Philipp Slusallek ist Mitglied der "European High-Level Expert Group on Artificial Intelligence". Nicht nur technische Lösungen sind gefragt, sondern eine klare Positionierung der Gesellschaft gegen Rassismus.

"Wir brauchen hier Philosophen für die ethischen Aspekte, Rechtswissenschaftler, um die juristischen Aspekte abdecken zu können, Psychologen sind sehr wichtig, weil es ja auch darum geht, wie die Interaktion zwischen dem Menschen und der Maschine genau passiert. Aber dann braucht man natürlich auch die betroffenen Personen aus der Gesellschaft, aus der ganzen Breite der Gesellschaft, die vielleicht nicht in jedem Projekt drin sind, die aber helfen, die Kriterien, die in solchen Projekten berücksichtigt werden müssen, zu definieren."

Prof. Philipp Slusallek, European High-Level Expert Group on Artificial Intelligence

Das große Problem: Oft wissen Betroffene gar nicht, dass sie diskriminiert worden sind. Denn Entscheidungen eines Algorithmus sind nicht nachvollziehbar.

"Systeme künstlicher Intelligenz sind von ihrer Entwicklung bis zu ihrem Einsatz völlig intransparent, viele nennen das die 'Black Box' der KI. So, wie wir als Bürger nicht wissen, wie sie funktionieren, wissen auch Regierungen oder private Unternehmen oft nicht, welche Faktoren und zugrundeliegenden Ursachen zu bestimmten Entscheidungen führen. Das macht es viel schwieriger, erstens überhaupt zu erfahren, dass KI bei Entscheidungen, die unser Leben betreffen, beteiligt war, und zweitens, diese Entscheidung zu verstehen und drittens dagegen anzugehen, mit unseren Gesetzen und dem bestehenden Rechtssystem."

Sarah Chander, European Digital Rights

Doch KI kommt nicht wie eine unaufhaltsame Entwicklung, die wir hinnehmen müssen. Politik und Gesellschaft müssen klar beschließen, welche Entscheidungen von Maschinen getroffen werden dürfen und welche nicht. Und dass auch die, die am meisten von Diskriminierung betroffen wären, die Kriterien mitbestimmen.


2