Zurück zur Startseite
Netzwelt
Zurück zur Startseite
Netzwelt

Deepfakes: Kann man seinen Augen noch trauen? | BR24

© BR

Obama beleidigt Trump, Nicolas Cage spielt in jedem Film mit, Schauspielerinnen finden sich in Sexfilmchen wider: Mit künstlicher Intelligenz lassen sich bewegte Bilder manipulieren.

7
Per Mail sharen
Teilen
  • Artikel mit Audio-Inhalten

Deepfakes: Kann man seinen Augen noch trauen?

Obama beleidigt Trump, Nicolas Cage spielt in jedem Film mit, Schauspielerinnen finden sich in Sexfilmchen wider: Mit künstlicher Intelligenz lassen sich bewegte Bilder manipulieren. Was machen solche Deepfakes mit unserem Blick auf die Realität?

7
Per Mail sharen
Teilen

Barack Obama, der unflätige Dinge über Donald Trump sagt. Der Schauspieler Nicolas Cage, der plötzlich in Filmen auftaucht, in denen er nie mitgespielt hat. Oder Sängerinnen, die gegen ihren Willen in Sexfilmchen hineinmontiert werden: All das sind sogenannte Deepfakes. Als Deepfakes bezeichnet man Videos, die mit Hilfe von künstlicher Intelligenz manipuliert wurden.

Das Ergebnis ist häufig täuschend echt, weshalb die Technologie ein beachtliches Missbrauchspotenzial in sich birgt. "Noch haben wir es nicht mit einer riesigen Gefahr zu tun", sagt zum Beispiel Julian Jaursch, der bei der Stiftung Neue Verantwortung das Projekt "Stärkung digitaler Öffentlichkeit" leitet, "aber als eines von vielen Mitteln der Desinformation bergen Deepfakes schon Risiken."

Photoshop für Videos

Es droht also die "Photoshopisierung" auch von bewegten Bildern. Bald kann jeder mit wenig Aufwand Videos fälschen, so zumindest die Befürchtung. Heute allerdings geht die wahre Gefahr noch weniger von Deepfakes als vielmehr von "Cheap Fakes" aus. Von billigen Fälschungen also, wie sie auch Menschen ohne tiefe Computerkenntnisse erstellen können. "Diese Form der Fälschung darf man nicht unterschätzten. Die Technologie für Deepfakes ist zwar schon ziemlich gut, aber es ist trotzdem viel einfacher, beispielsweise die Tonspur eines Videos zu manipulieren", sagt Jaursch.

Angst vor Deepfakes

Vielleicht muss man aber ironischerweise weniger vor Fälschungen Angst haben als vor echten Videos, die im Deepfake-Zeitalter für Deepfakes gehalten werden. Anfang des Jahres etwa schaut Gabuns Präsident Ali Bongo bei seiner Neujahrsansprache etwas starr in die Kamera und blinzelt selten, was aber vermutlich daran liegt, dass Bongo einige Schlaganfälle erlitten hat. Aber dass ein Präsident etwas unüblich in die Kamera schaut, reichte damals schon, um unter Deepfake-Verdacht zu geraten. Es kommt deswegen sogar zu einem Militärputsch in dem zentralafrikanischen Staat. Das Beispiel Gabun zeigt also, dass die Angst vor Deepfakes eine größere Bedrohung sein kann als die Deepfakes selbst.

Deepfakes erkennen ist einfacher, als sie zu erstellen

Die gute Nachricht: Algorithmen können Deepfakes erkennen, die TU in München beispielsweise ist führend bei der Erkennung solcher Fälschungen. Dort hat Matthias Nießner, Professor für "Visual Computing", die Software "Face Forensics" entwickelt.

"Deepfakes detektieren ist für eine Künstliche Intelligenz um einiges einfacher als Deepfakes erstellen. Die KI muss ja nur ein Pixel finden, das an der falschen Stelle liegt. Auf der anderen Seite muss eine KI bei der Erstellung von einem Deepfake jedes Pixel perfekt in einer Sequenz von sehr vielen Frames korrekt erstellen können." Matthias Nießner, Professor für "Visual Computing" an der TU München

Das Problem: Die Algorithmen müssen erst trainiert werden, gefälschte Videos zu erkennen. Die TU München hat deswegen einen Algorithmus kreiert, der gefälschte Videos erstellt, mit dem wiederum die Software gefüttert wird, die gefälschte Videos erkennen soll. Das Verfahren eignet sich besonders dafür, Deepfakes zu erkennen, die in niedriger Auflösung vorliegen. Herkömmliche Algorithmen können solche Videos nur mit einer Wahrscheinlichkeit von etwas über 50 Prozent als Fälschungen erkennen. Das Verfahren der TU München liegt bei der Deepfake-Detektierung hingegen zu 78 Prozent richtig.

Wir sind nicht wehrlos gegen die Fake-Flut

Die Deepfake-Technologie vermag also verblüffende Momente erschaffen. Aber man ist der Fake-Flut nicht schutzlos ausgeliefert. Spezialisierte Teams in Redaktionen, etwa bei BR24, checken Videos, Forschungseinrichtungen wie die TU München stellen hierfür die richtigen Werkzeuge bereit. Per künstlicher Intelligenz manipulierte Videos sind also eine Herausforderung für die demokratische Öffentlichkeit. Aber am Ende ist es auch die künstliche Intelligenz, die dabei helfen kann, diese Herausforderung zu bewältigen.