Kultur


23

Big Data und Vertrauen Warum auch Algorithmen irren können

Algorithmen sind schon heute im Alltag angekommen: Sie zeigen uns den schnellsten Weg auf dem Navi oder empfehlen uns passsende Partner beim Online-Dating. Nur: Wie das geschieht, das weiß kaum jemand. Höchste Zeit für eine Debatte.

Von: Martin Zeyn

Stand: 06.02.2018

Supercomputer der TU Dresden | Bild: picture alliance / Jürgen Lösel

Eine einfache Frage: Wer kann besser etwas berechnen? Ein Computer oder ein Mensch? Fast alle würden antworten: ein Computer. Nur: Das stimmt so nicht. Das hat zuletzt auch ein Experiment in den USA gezeigt. Dort werden seit einigen Jahren Computerprogramme genutzt, um Vorhersagen über die Rückfallwahrscheinlichkeit von verurteilten Straftätern zu errechnen. Entscheidet der Algorithmus, jemand begeht keine weiteren Verbrechen, kommt er oder sie früher frei.

Yvonne Hofstetter

Ein Vergleichstest hat gezeigt, dass die Vorhersagen des Algorithmus keineswegs zuverlässiger waren als die von Menschen, wie die IT-Unternehmerin Yvonne Hofstetter berichtet: "Da hat man auf der einen Seite diesen Algorithmus benutzt und auf der anderen Seite, um die Qualität dieser Entscheidung zu testen, eine Gruppe von Menschen ausgesucht, die nie etwas mit Justiz zu tun hatten, die andere Jobs machten. Denen hat man die Fälle vorgelegt, die auch die Maschine beurteilt hat. Und das Ergebnis war dasselbe." Bei gleichem Informationsstand sind Menschen also durchaus in der Lage, andere Menschen genauso gut einzuschätzen wie ein Computer. Der erreichte auch nur 65 Prozent Genauigkeit, irrte sich also in einem von drei Fällen.

Die diskriminierende Maschine

Eines haben die Maschinen uns trotzdem voraus: Sie können in kürzester Zeit riesige Datenmengen auswerten. Entscheidungen treffen sie allerdings nur objektiv, wenn auch der Programmierer seinen Algorithmus so angelegt hat, dass er von Geschlecht oder Rasse absieht.

Peter Schaar

Wenn zum Beispiel im Programm steht, das Angehörige einer bestimmten Rasse Kredite häufiger nicht zurückzahlen, dann hat das erhebliche Folgen. Das berichtet der ehemalige Bundesbeauftragte für Datenschutz, Peter Schaar: "Der Bankmitarbeiter, der entscheiden würde, dem Schwarzen gebe ich keinen Kredit, dem würde man natürlich sagen, dass ist eine Diskriminierung. Dem Bankmitarbeiter, der sagt, sie haben einen schlechten Score-Wert, das hat mein Algorithmus ausgerechnet, dem würde man das nicht vorwerfen, obwohl es wieder dieser Schwarze ist, der sich nichts hat zuschulden kommen lassen. In dem einen Fall ist es Diskriminierung und im anderen ein gesichertes mathematisches Verfahren."

Wer entscheidet: Algorithmus oder Arzt?

Man könne sich nicht in Sicherheit wiegen, mahnt Schaar. Die Algorithmen drohten den sozialen Zusammenhalt zu zerstören, etwa in der Medizin, wenn das Berechnen der Wahrscheinlichkeit darüber entscheidet, wer wie behandelt wird: "In Zukunft werden wir sehr viel genauere stochastische Analysen über die genetische Zusammensetzung haben, etwa wenn es um die Frage geht, welches Medikament schlägt bei wem gut oder schlecht an, wo sind möglicherweise Nebenwirkungen zu befürchten – solche Wahrscheinlichkeits-Berechnungen können bei Erreichen eines bestimmten Schwellenwerts dazu führen, dass ein Medikament an einen bestimmten Kranken nicht mehr verabreicht oder von Kassen nicht mehr bezahlt wird. Weil die Wahrscheinlichkeit, dass es bei dieser Person wirkt, zu gering ist."

Auch hier sagt das Programm nicht, ob das Medikament wirksam oder unwirksam ist. Es trifft lediglich eine Aussage darüber, ob es schlechter wirkt als bei anderen Patienten. Wer entscheidet dann? Der Arzt oder das Programm? Die Antwort auf solche Fragen sollten wir nicht den Computern überlassen. Auch nicht Firmen, die uns Lösungen verkaufen wollen. Aber wem dann? Vielleicht einem Staat, der Open Source Software fördert, bei der der Programmiercode offen einsehbar ist? Wir brauchen eine Debatte darüber, wer in Zukunft über uns bestimmt.

Die Sendung: Nachtstudio

Mit Yvonne Hofstetter, Big Data-Unternehmerin und Sachbuchautorin, und Peter Schaar, ehemaliger Bundesbeauftragter für Datenschutz. Moderation: Thomas Kretschmer. Auch als Podcast verfügbar.


23