Vertreter der sieben Unternehmen, die die Selbstverpflichtung zum Schutz vor möglichen Gefahren von Programmen mit Künstlicher Intelligenz (KI) abgeben, darunter Google, Open AI, Microsoft, Amazon oder Meta, trafen am Freitagabend (Ortszeit) im Weißen Haus US-Präsident Joe Biden. Um Gefahren von vorneherein zu minimieren, sollen KI-Programme schon vor ihrer Veröffentlichung auf mögliche Risiken geprüft werden.
KI-Inhalte sollen gekennzeichnet werden
Der US-Präsident sagte nach dem Treffen, dass auch Inhalte, die von Software mit Künstlicher Intelligenz erstellt oder verändert wurden, entsprechend gekennzeichnet werden würden. Hintergrund für die Kennzeichnung ist, dass die von der KI erstellten oder veränderten Texte, Bilder oder Videos so täuschend echt sind, dass sie kaum noch als solche erkannt werden können. Deswegen könnten viele Menschen getäuscht werden und Falschinformationen dadurch zu einer allgemeinen Verunsicherung beitragen.
- Zum Artikel: KI Wettlauf: Wer die Daten hat, hat die Macht
"Intelligenz" ohne Wissen um den Inhalt
Denn die "Intelligenz" der KI beschränkt sich in der Regel auf das, wie sie etwas tut. Vom Was, also dem Inhalt dessen, was sie herstellt, hat die KI keine Ahnung. Damit ist auch eine Wertung, gleich ob nützlich oder schädlich oder auch wahr oder gelogen, nicht Teil ihrer "Intelligenz".
Geschliffenes Geplapper
So kann die KI im Chatbot ChatGPT, der seit Ende vergangenen Jahres für Aufsehen sorgt, zwar Texte und Sätze formulieren, die praktisch nicht mehr von menschlicher Kommunikation zu unterscheiden sind. Doch die Software formuliert einen Satz, indem sie Wort für Wort abschätzt, wie er weitergehen könnte. Dadurch fehlt ihr aber jegliches Verständnis für die Inhalte und sie formuliert überzeugend Behauptungen, die teilweise völlig falsch sind.
KI schreibt Anleitung für Diebstahl
Auch eine ethische Wertung fehlt dem Chatbot. Zwar haben die Entwickler versucht, ihr durch bestimmte Regeln zum Beispiel zu untersagen, illegale Inhalte zu formulieren. Dennoch ist es gelungen, sie durch einfache Befehle zum Beispiel dazu zu bringen, die Anleitung für einen Diebstahl zu schreiben.
Fatale Fehler bei ethischen Regeln
Damit sind Programme mit künstlicher Intelligenz abhängig von der Qualität der Regeln, an die sie sich halten. Und bei diesen Regeln unterlaufen den Entwicklern immer wieder Fehler, die dann zur Verstärkung von Vorurteilen oder zu Diskriminierung führen können. So wurden in der Vergangenheit von Programmen, die bei der Vorauswahl von Bewerbern eingesetzt wurden, Frauen oder Angehörige bestimmter Gesellschaftsgruppen schlechter bewertet oder von vorneherein ausgeschlossen. In der Selbstverpflichtung erklärten sich die Unternehmen bereit, solche Probleme anzugehen.
Chancen für unterschiedlichste Forschungsgebiete
Umgekehrt bieten Programme mit künstlicher Intelligenz großen Chancen. In der Selbstverpflichtung erklären die Firmen deswegen auch ihre Absicht, die KI für große Herausforderungen wie beispielsweise in der Krebsforschung oder gegen den Klimawandel einzusetzen.
Biden: Vielversprechender Schritt
Künstliche Intelligenz berge Risiken für Gesellschaft, Wirtschaft und nationale Sicherheit - aber auch unglaubliche Chancen, sagte US-Präsident Biden. Die freiwilligen Zusagen seien "ein vielversprechender Schritt", aber man werde auch neue Gesetze und Aufsicht brauchen, betonte Biden.
Doppelstrategie der KI-Firmen
Beobachter sehen hinter der Selbstverpflichtung aber auch eine Doppelstrategie der Unternehmen: Zum einen als Image-Signal der Branche, dass sie mit der neuen Technologie umsichtig und proaktiv umgehen. Zum anderen aber auch den Versuch, Gesetzes- und Regulierungsmaßnahmen, an denen Regierungen weltweit arbeiten, durch diese Selbstkontrolle etwas den Wind aus den Segeln zu nehmen oder sie selbst mitzugestalten.
Biden: Nicht den gleichen Fehler wie bei Social Media machen
Denn die US-Regierung plant für den Herbst gesetzliche Regelungen und Präsident Biden betont, er wolle nicht den gleichen Fehler machen, wie Vorgängerregierungen bei der Einführung von Social Media. Die Entwicklung bei dieser Technologie habe gezeigt, dass ohne staatliche Kontrolle oder gesetzliche Regularien großer Schaden entstehen könne.
Modellcharakter für Regierungen weltweit
Nick Clegg, der Präsident für globale Angelegenheiten bei Meta, der Muttergesellschaft von Facebook, betonte in einer Erklärung, die Selbstverpflichtung sei ein "wichtiger erster Schritt, um sicherzustellen, dass verantwortungsvolle Leitplanken für die KI geschaffen werden“. Es könne ein Modell sein, dem andere Regierungen folgen könnten.
Kaum Einschränkungen bei der weiteren Entwicklung
Die freiwillige Selbstverpflichtung konkurrierender Firmen wird die rasche Weiterentwicklung und Verbreitung von KI-Programmen nach Expertenmeinung kaum behindern. Die Regeln, auf die man sich geeinigt hat, stellten den kleinsten gemeinsamen Nenner dar und können von jedem Unternehmen anders interpretiert werden. Zugleich können staatliche Stellen nur Verordnungen und Gesetze überwachen.
Weniger Widerstand gegen Regulierungen
Dennoch verschafft eine freiwillige Selbstverpflichtung den staatlichen Institutionen möglicherweise etwas Zeit, mit der rasanten technischen Entwicklung mitzuhalten, auch deswegen, weil eine Selbstverpflichtung, die von den auf diesem Gebiet führenden Firmen ausgeht, den Widerstand gegen mögliche staatliche Regulierungen aus der Branche selbst etwas vermindert.
- Zum Artikel: KI-Stopp jetzt: KI-Entwicklung muss pausieren
Das ist die Europäische Perspektive bei BR24.
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!