| BR24

 
 

Bild

Programmiercode mit abstraktem technischen Hintergrund in blau
© picture alliance / Klaus Ohlenschläger

Autoren

© picture alliance / Klaus Ohlenschläger

Programmiercode mit abstraktem technischen Hintergrund in blau

Es beginnt mit einer weißen Fläche. Obwohl "beginnt" hier eigentlich das falsche Wort ist. "Endet" auch. Susanne Steinmassl hat einen endlosen Film geschaffen. "The Future is not unwritten" heißt das Projekt, das gerade bei der DLD-Konferenz gezeigt wurde. Steinmassl nennt das Ganze „Smart Film“, schließlich wurde er doch ausschließlich von einer Künstlichen Intelligenz (KI) komponiert. Die Regisseurin und ihr Team haben nur das Programm geschrieben. "Ich bin immer wieder überrascht, was dabei rauskommt. Ich weiß einfach nicht, was als nächstes passiert. Es kommt schon mal vor, dass sich Leute aus dem Team eine halbe Stunde reinschauen und dann total drin verlieren - das macht schon ein bisschen süchtig."

Tanzende Formen, algorithmisch retuschierte Bilder, dazu Texte von KI-Pionieren wie Ray Kurzweil und ein atmosphärischer Soundtrack: "The Future is not unwritten" zeigt, wie man auch auf Künstliche Intelligenz schauen kann: nämlich staunend, vor der Technik. Und natürlich vor dem Potenzial das in dieser noch für die Kunst steckt.

Machine Learning gefährdet Jobs

Auf den Bühnen des DLD geht es hingegen weniger verträumt zu. Die Technik, die eigentlich Machine Learning heißt und schon seit Jahren als das nächste große Ding hochgeschrieben wird, wird auch dieses Jahr auf der DLD heiß diskutiert.

Dabei sind wir im Diskurs eine Stufe weiter. Es geht nicht mehr darum, ob Machine Learning das nächste große Ding wird, sondern wie man die gesellschaftlichen Folgen der Technik abfedern kann. Die ethische Nutzung von KI steht tatsächlich im Vordergrund. Nur wie genau diese Ethik aussehen soll, das ist noch nicht klar. Da wäre zum einen der Arbeitsmarkt: „Rund 14 Prozent aller Jobs in Deutschland sind durch Automatisierung akut gefährdet. In den USA sind es 50 Prozent“, meint zum Beispiel der Globalisierungsforscher Ian Goldin. Veränderungsprozesse laufen - auch durch Technologie beschleunigt - immer schneller ab und die Weltgemeinschaft müsse jetzt noch enger zusammenarbeiten als jemals zuvor, um die Folgen abzudämpfen.

Susanne Steinmassl, die ihren KI-Film auf der DLD präsentierte

Susanne Steinmassl, die ihren KI-Film auf der DLD präsentierte

Eine Bedrohung fürs Selbstwertgefühl

In nahezu jeder Veranstaltung zur Künstlichen Intelligenz werden auch die Unternehmen und die Politik in die Pflicht genommen: Kai-Fu Lee, KI-Pionier und Investor, fordert von Unternehmern zum Beispiel, ihre Mitarbeiter auf die kommende neue Arbeitswelt vorzubereiten. Durch Umschulungen, neu geschaffene Jobs, Weiterbildungsprogramme. Frank Appel, der Chef der Deutschen Post, wägt hingegen anscheinend Ethik gegen Wirtschaftlichkeit ab: Gerade in Bereichen mit niedrig qualifizierten Angestellten wären die Margen nicht vorhanden, um flächendeckend umzuschulen. Kai-Fu lee mahnt: "Die größte Sorge ist nicht der Verlust von Einkommen, sondern der Verlust von Selbstwertgefühl.“

KI-Ethik wird auf der DLD aber nicht nur als Imperativ verstanden, sondern dient auch als gutes PR-Feigenblatt, um ein wenig von den eigenen Problemen abzulenken. Facebook verkündete am Sonntag stolz, jetzt 6,5 Millionen Euro in ein Forschungsprojekt der TU München zu stecken. Hier sollen die ethischen Implikationen von Künstlicher Intelligenz erforscht werden. Das ist leider auch bitter nötig, wie Skype-Erfinder Jaan Tallinn findet. Er meint: „Künstliche Intelligenz ist wie eine Rakete, nur arbeitet niemand an der Steuerung.“

Datenschutz und Künstliche Intelligenz passen schlecht zusammen

Beim neuen, von Facebook finanzierten Institut wird es vor allen Dingen darum gehen, Vorurteile, die in den Datensets stecken, auszubügeln. Ein Beispiel: Würde man eine KI für gerechte Löhne entwickeln, könnte es sein, dass Männer hier mehr bekommen - einfach weil es gerade historisch der Fall ist. Das neue Institut soll hier ansetzen. Ob Facebook auch etwas gegen das Grunddilemma von Machine Learning unternehmen will, ist nicht klar: Denn momentan brauchen KI-Systeme jede Menge Daten, damit sie funktionieren können. Der, der die meisten Daten über seine Nutzer hat, hat automatisch auch einen Vorsprung, wenn es um Künstliche Intelligenz geht. Aber die öffentliche Meinung, wenn es um Datenschutz, Datensparsamkeit und den sorgsamen Umgang mit meinen Daten geht, ändert sich gerade.

Denn das ist ein ungeklärtes ethisches Problem mit Künstlicher Intelligenz. Wir alle wollen smarte Assistenten, aber sind wir auch bereit, diese zum Preis einer Totaldurchleuchtung zu bekommen?

Verpassen war gestern, der BR Kultur-Newsletter ist heute: Einmal die Woche mit Kultur-Sendungen und -Podcasts, aktuellen Debatten und großen Kulturdokumentationen. Hier geht's zur Anmeldung!