Bayern 2 - Zündfunk


6

Zündfunk Netzkongress Filmproduzent Miro Weber: So einfach geht ein Deepfake

Was kann künstliche Intelligenz? Viel. Zum Beispiel Menschen Dinge sagen lassen, die sie nie gesagt haben. Ihre Gesichter in Videosequenzen schneiden. Solche Fälschungen nennt man Deepfake. Und die lassen sich mitterweile wie am Fließband herstellen.

Von: Aylin Dogan

Stand: 17.10.2019

Software arbeitet an einem Obama Deepfake | Bild: picture alliance/AP Photo

Wem läuft es beim Gedanken an die berühmte Filmszene aus American Psycho nicht kalt den Rücken herunter. Der Moment, in dem Christian Bale gleich mit einer Axt auf Jared Leto einschlagen wird. Aber Moment mal? War das wirklich Christian Bale? Oder doch Tom Cruise? Habe ich da irgendwas vertauscht? In diesem Clip auf Youtube spritzt das Blut plötzlich ins Gesicht von Tom Cruise.

YouTube-Vorschau - es werden keine Daten von YouTube geladen.

Tom Cruise is an American Psycho - E02: Hey Paul! [DeepFake] | Bild: Ctrl Shift Face (via YouTube)

Tom Cruise is an American Psycho - E02: Hey Paul! [DeepFake]

Mit dem Video werde ich Zeugin eines Deepfakes. Also eines manipulierten Fake-videos. Brought to you by Künstliche Intelligenz. „Das ist kaum zu erkennen, man muss wirklich zweimal genauestens hinschauen. Aber der ist so extrem gut gemacht, dass man beim einfachen darüber schauen überhaupt nicht erkennen würde, dass das nicht Tom Cruise ist“, sagt Videoproducer und Deepfake Experte Miro Weber. Er erzählt mir, wie solche Szene mithilfe von Künstlicher Intelligenz produziert werden.

"In dem Fall würde man so vorgehen, dass man diese Szene lernen lässt durch die KI. Dann lernt die KI alle Bewegungsmuster und alle Mimiken, die in dem Video vorkommen. Und der zweite Teil wäre, dass man die KI füttert mit Aufnahmen von Tom Cruise. Am Besten so, dass diese Aufnahmen denen, die jetzt hier im Video zu sehen sind, auch ähneln. Je näher man mit dem Originalen an das rückt, was man faken will, desto besser wird das Ergebnis."

Miro Weber

Anschließend solle man die KI dann erstmal in Ruhe lassen, meint Miro Weber. Sie würde erstmal die Bewegungsmuster lernen und dann die Datenbanken tauschen. „Das was die KI bei Tom Cruise gelernt hat, wird auf die Datenbank von dem Schauspieler von American Psycho übertragen.“

Deepfakes können Dich Dinge sagen lassen, die du nie gesagt hast

Der Körper von Christian Bale kann also mit dem Gesicht von Tom Cruise überspielt werden. Die Hersteller solcher Deepfakes fokussieren sich aber nicht nur auf Videos. Sie können durch die KI genauso auch einen Text, ein Foto oder Audiodateien faken. In der American Psycho Parodie wurde die Stimme von Tom Cruise zum Beispiel von einer Software imitiert. So sagt Tom Cruise das gleiche wie Christian Bale im Original. Obwohl er das selbst nie so gesagt hat.

Die Deepfake-Software wurde dafür einfach mit so viel Sprechmaterial von Tom Cruise gefüttert, dass sie damit selber neue Sätze in seiner Stimme herstellen kann. Eine täuschend echte Illusion. In bestimmten Szenen bröckelt sie aber doch ein wenig. „Das besondere ist, wenn man den Film mal anhält und sich die Szene genau anschaut, dann sieht man, dass da irgendwas nicht stimmt. Das Gesicht sieht etwas aufgesetzt aus“, sagt Deepfake Experte Miro Weber.

Oft reicht ein einfacher PC

Ok. Manchmal wirken gewisse Mimiken verschwommen. Auch die Lippenbewegung passt nicht ganz zur Audio und manche Hintergrundgeräusche, wie Schritte, fehlen komplett. Ich frage mich trotzdem: So ein Deepfake Video herzustelln muss doch ziemlich aufwendig sein, oder?

"Letztendendes braucht man nur einen handelsüblichen PC, eine bestimmte Graphikkarte und dann kann man sich die Software z.b. bei Reddit herunterladen. Und dann muss man bisschen was von den Kommandozeilen verstehen, aber dazu gibt es reichlich Tutorials auf Youtube."

Miro Weber

Theoretisch kann also jeder so ein Deepfake-Video erstellen. Der erste große Deepfake ging 2018 viral. Auf die Mimik und die sprachliche Imitation von Schauspieler Jordan Peele wurde das Gesicht von Obama gelegt. Es entstand eine Obama-Ansprache, die es so nie gegeben hat.

YouTube-Vorschau - es werden keine Daten von YouTube geladen.

You Won’t Believe What Obama Says In This Video! 😉 | Bild: BuzzFeedVideo (via YouTube)

You Won’t Believe What Obama Says In This Video! 😉

Das Video wurde von Buzzfeed produziert und am Ende auch als Fake aufgelöst. Als erster viraler Deepfake-Hit diente es aber nicht nur zur Unterhaltung. „Ab da fand eine Sensibilisierung statt. Eine Sensibilierung für die Möglichkeit, was mit KI im Falle von Fake möglich ist“, erzählt mir Miro Weber.

Wie groß ist die Gefahr?

Und was damit alles möglich ist, zeigen aktuelle Zahlen. 96% der Deepfakes sind Pornos, insbesondere Rache-Pornos. Vor allem Männer bauen die Gesichter ihrer Ex-Freundinnen in pornographische Inhalte ein. Und können so einen großen Schaden bei den Opfern errichten. Miro Weber plädiert für Gegenmaßnahmen. Das Problem sei folgendes: „Wenn der Deepfake einmal in der Welt ist, dann ist die Einordnung oder die Klassifizierung zwar wichtig, aber das erreicht dann viele Menschen nicht mehr.“

Für Miro Weber ist klar: Die Menschen müssten vorher schon erreicht werden. Ein Upload dürfe gar nicht mehr möglich sein. Es müsste außerdem Tools geben, die sagen: „Pass mal auf, das was du da anschaust ist gar nicht echt“.

Das können die Deepfake-Gesetze

Das perfekte Tool oder komplett funktionierende Plug-Ins zur Erkennung solcher Fakes gibt es noch nicht. In Kalifornien sollen die Fakes jetzt durch Gesetze vermieden werden. Bis zu 60 Tage vor der Präsidentschaftswahl 2020 dürfen keine politischen Deepfakes im Umlauf sein. Pornographische Deepfakes sind ab sofort verboten und können angezeigt werden. Dient ein Fake nur als Satire, muss es als solches gekennzeichnet sein. Ob das Gesetz Wirkung zeigt, wird man sehen. Für Video-Producer Miro Weber ist ein komplettes Verbot von Deepfakes aber sinnlos. „Es ist einfach eine Technologie-Möglichkeit, die jetzt gerade machbar ist. Es besteht gar keine Chance, irgendwelche Verbote durchzusetzen.“ Miro Webers Apell: Ein aufgeklärter Umgang das ständige Hinterfragen von dem, was man gerade sieht. Es müsse klarwerden, dass Informationssuche immer mit verlässlicher Quellensuche einhergehe.

Einen Workshop zum Thema Deepfakes hält Miro Weber auch auf dem Zündfunk Netzkongress. Tickets für den Netzkongress am 8. und 9. November 2019 in München sind jetzt verfügbar!


6