Zurück zur Startseite
Kultur
Zurück zur Startseite
Kultur

Warum auch eine Künstliche Intelligenz Vorurteile entwickelt | BR24

© Bayern 2

"Die weibliche Stimme ist so konnotiert, das man eher weniger Widerspruch erwartet", sagt die österreichische Medienkünstlerin Margarete Jahrmann. Da sie viel mit KI arbeitet, kennt sie deren Tücken und Chancen.

Per Mail sharen
Teilen
  • Artikel mit Audio-Inhalten

Warum auch eine Künstliche Intelligenz Vorurteile entwickelt

Alexa und Siri klingen wie Frauen – kein Zufall, sagt die Medienkünstlerin Margarete Jahrmann: "Die weibliche Stimme ist so konnotiert, das man eher weniger Widerspruch erwartet." Sie erklärt, wie diskriminierend Künstliche Intelligenz sein kann.

Per Mail sharen
Teilen

Ist Künstliche Intelligenz, kurz KI beziehungsweise AI für Artifical Intelligence, weiblich? Alexa und Siri, die allgegenwärtigen smarten Sprachassistentinnen, sprechen mit der Stimme einer Frau. Doch das sei kein Indiz für Gender-Gerechtigkeit in der KI-Entwicklung, sagt Medienkünstlerin und Kunsttheoretikerin Margarete Jahrmann – im Gegenteil.

Die weibliche Stimme, die meist bei Agenten oder Androiden in der Robotik zu hören ist, werde strategisch eingesetzt, erklärt Jahrmann: "Die weibliche Stimme ist so konnotiert, dass man eher weniger Widerspruch erwartet. Das ist eine rein strategische Entscheidung, nicht ein positives Zeichen, wenn ein Artificial-Intelligence-Agent weiblich konnotiert oder dargestellt ist." Ziel dieser Konnotation sei eher, den Benutzern ein bisschen diese Ängste zu nehmen, dass diese Künstliche Intelligenz potenter wäre als sie.

Künstliche Intelligenz ist "antrainiert" – Diskriminierungen inklusive

Margarete Jahrmann sieht in den technologischen Versprechungen der KI zwar ein emanzipatorisches Potenzial schlummern, "weil dadurch auch andere, gesellschaftliche Umwälzungen möglich wären". Aber, es gebe eben keine neutrale Technologie. Vorurteile, auch solche auf Grund des Geschlechts, seien in den von uns genutzten Algorithmen und Programmen implementiert. Das treffe – ungeachtet der Tatsache, dass Künstliche Intelligenz viel komplexer als Algorithmen sei – auch auf KI zu.

Die Diskriminierung durch nicht-neutrale Technologie und wie sie entsteht, ist Thema eines Kunstwerks, das Jahrmann zusammen mit dem Neurowissenschaftler Stefan Glasauer 2017 auf der Ars Elektronica gezeigt hat. Die Installation "I want to see Monkeys" zeigt, dass Künstliche Intelligenz, eingesetzt in der Gesichtserkennung, nur das erkennt, was ihr antrainiert wird, zu erkennen.

Alle Besucherinnen der Installation wurden als Testsubjekte klassifiziert, während sie ein Game spielten. Sie wurden jedoch nicht auf das getestet, was sie in dem Spiel taten, sondern in Wirklichkeit aufgrund des Gesichts als ein Versuchstier – ein Affe. "Obwohl wir alle mit unseren Gesichtern davor sitzen, werde ich nachher klassifiziert als ein Makak oder ein Rhesusäffchen oder irgendetwas anderes, weil wir das Netzwerk dieser AI so programmiert haben," erklärt Margarete Jahrmann.

Eine Künstliche Intelligenz, wie eine Gesichtserkennung oder in diesem Fall eine "Affenerkennung", wird also anhand der Daten und Parameter trainiert, die ihr jeweils vorgeben werden. "Sie sehen noch immer so aus, wie sie aussehen", betont Jahrmann. "Nur das DeepDream oder AI-Netzwerk glaubt, Sie sind ein Affe."

Verpassen war gestern, der BR Kultur-Newsletter ist heute: Einmal die Woche mit Kultur-Sendungen und -Podcasts, aktuellen Debatten und großen Kulturdokumentationen. Hier geht's zur Anmeldung!

Die tägliche Dosis Kultur – die kulturWelt als Podcast. Hier abonnieren!