"President Trump is a total and complete Dipshit": "Donald Trump ist ein absoluter Vollidiot" - und weitere wenig schmeichelhafte Bemerkungen aus dem Mund von Ex-US-Präsident Barack Obama. Das Onlinemagazin Buzzfeed hatte dieses Video angefertigt und ins Internet gestellt. Es ist ein sogenannter Deepfake: ein täuschend echt anmutendes Video einer prominenten Person, das aber eben eine Fälschung ist.
Deepfake-Software gibt es umsonst im Internet
Der Begriff Deepfake kombiniert Deep Learning, eine Methodik aus dem Bereich der künstlichen Intelligenz, und Fake für Fälschung. Und so einen Deep Fake anzufertigen, ist heute gar nicht mehr so schwer. Dafür braucht man einen PC mit leistungsstarker Grafikkarte und eine Software, die es umsonst im Internet gibt, zum Beispiel Myfakeapp. Ein paar Tage rechnet der Computer, dann entsteht in unserem Versuch ein Deep Fake mit Angela Merkel, in dem die Bundeskanzlerin vermeintlich erklärt, die Autoindustrie zu Hardware-Nachrüstungen an Dieselautos auf eigene Kosten zu verpflichten (Reportage am 1.8.2018 um 22:30 in Das Erste).
Straßenumfrage mit Merkel-Deepfake
Im Test per Straßenumfrage mit einem Tablet PC überzeugt die Fälschung Manchen schon, wenn auch längst noch nicht jeden: "Ich dachte, es ist Frau Merkel", sagt einer der Befragten - "Das ist aber nicht die Frau Merkel", meint ein anderer. Für unser Deepfake-Video haben wir das Merkel-Double Antonia von Romatowski den Text mit den Dieselautos sprechen lassen, sie vorher noch etwas Kanzlerinnen-like gestylt und später ihr Gesicht durch das von Angela Merkel ersetzt. Die Fake-Software haben wir dazu mit verschiedenen Videos der echten Merkel gefüttert. Das Programm erlernt die Mimik und rechnet sie in das Video unseres Doubles mit ein.
Auch digitale Stimmenfälschung ist längst möglich
Eine Stimme digital zu fälschen ist noch nicht ganz so einfach, wenn man keinen fähigen Imitator hat. Doch auch die Sprachsoftware hat mittlerweile ein beeindruckendes Level erreicht. Auf der Website des kanadischen Unternehmens Lyrebird kann man einen Computer auf die eigene Stimme trainieren, indem man 30 vorgegebene, englische Sätze einspricht. Anschließend sagt der Computer jeden beliebigen Satz mit der neu gelernten Stimme, das Ergebnis kann sich hören lassen. Um seine Möglichkeiten zu demonstrieren, hat Lyrebird auch eine Fake-Stimme von Donald Trump angefertigt, die man auf der Lyrebird-Website einen Beispielsatz sagen lassen kann. Wohlwissend, welches manipulative Potenzial in der Technik steckt, stellt Lyrebird den Trump-Stimmenautomaten aber nicht frei im Netz zur Verfügung.
Social-Media als Verstärker für Fakes
Was könnte man mit der Fake-Stimme eines mächtigen Politikers anrichten, zusammen mit einem täuschend echt gefälschten Video? ...verbreitet durch die Algorithmen sozialer Netzwerke, die ein solches Deepfake-Video in die Timelines von Millionen Nutzern spülen? Im Fall unseres Merkel-Deepfakes wären direkte Auswirkungen auf Börsenkurse nicht auszuschließen, glaubt Finanzmarktexperte Christoph Kaserer von der TU München: "Man muss einfach sehen, dass an der Börse solche Nachrichten innerhalb von Sekunden verarbeitet werden, wenn die Marktteilnehmer davon ausgehen, dass eine solche Nachricht echt ist, würden wir innerhalb kürzester Zeit einen erheblichen Kurseinbruch bei den Automobilaktien, auch bei Zulieferern sehen. Das hätte also große Folgen für die Bewertung der Aktie", sagte er dem Bayerischen Rundfunk.
Börsenbetrug ist denkbar
Ein denkbares Szenario wäre, dass jemand ein solches Video streut, nach einem möglichen Kurssturz Aktien kauft - und sie wieder verkauft, wenn der Fake aufgeflogen ist. Die Herausforderung in Zukunft wird sein, echte und falsche Informationen schnell zu unterscheiden. Die Darpa, eine Behörde des US-Verteidigungsministeriums, die sonst an so futuristischen Dingen wie Weltraumwaffen und autonomen Kampfrobotern arbeitet, hat kürzlich einen Wettbewerb unter Wissenschaftlern ausgerufen. Es geht um Technologien, um Deepfakes zu erkennen, die das menschliche Gehirn nicht mehr entlarven kann. Allein das zeigt, welches Bedrohungspotenzial in Deepfakes steckt.