43

Vertiefende Informationen Wichtige Fakten zu "Deepfakes"

Was heißt Deepfake eigentlich? Wie schwer ist es, gefälschte Filme herzustellen? Und: Ist das strafbar? Eine Erklärung in einem kompakten Überblick.

Stand: 17.05.2020

Gesichter von Sebastian Schaffstein und Christina Wolf werden vermessen | Bild: BR

Das Wort „Deepfake“ ist eine Zusammensetzung aus „Deep Learning“ und „Fake“. Deep Learning ist ein Teilbereich des maschinellen Lernens. Dabei werden große Datenmengen mit Hilfe von Algorithmen in viele einzelne Schichten strukturiert, Merkmale extrahiert und klassifiziert. Die gewonnenen Muster können immer wieder mit anderen Daten verknüpft werden. Die Maschine kann dadurch lernen und Einordnungen, Entscheidungen oder Prognosen treffen. Das ganze System der Datenstrukturierung, der Analyse und des Lernens wird auch künstliches neuronales Netz genannt.

Eine Programmierung kann zum Beispiel zunehmend darauf trainiert werden, wie eine bestimmte Person in den verschiedensten Perspektiven und Zusammenhängen aussieht, und dann bei neuen Bildern entscheiden, ob es sich um diese Person handelt. Die Maschine kann lernen, wie „unangemessene Bilder“ aussehen und diese beim Upload in soziale Netzwerke blockieren.

Beim Deepfake werden Entwicklungen des Deep Learnings genutzt, um Videos zu fälschen. Dabei wird zum Beispiel der Kopf einer Person, die in einem Film gar nicht mitspielt, auf den Körper eines Akteurs oder einer Akteurin im Film gesetzt. Die Aufnahmen beider Gesichter – also vom Original und der „Fälschung“ – werden mit Hilfe von Algorithmen analysiert und in Punkte unterteilt. Es wird jeweils ein künstliches neuronales Netz über die Aufnahmen gelegt, und zwar nicht nur von einem Bild, sondern von möglichst vielen verschiedenen Aufnahmen der Gesichter in unterschiedlichen Positionen, mit unterschiedlicher Mimik und unterschiedlichen Aufnahmebedingungen wie Helligkeit oder Kontrasten. Der Computer kann die Wahrscheinlichkeit berechnen, wie gut die Punkte von Gesicht A und von Gesicht B übereinander passen und die Gesichter entsprechend übereinanderlegen.

Weil von prominenten Schauspieler*innen bereits sehr viele Aufnahmen im Internet vorhanden sind, werden sie bevorzugt Opfer von Deepfakes, so zum Beispiel Nicolas Cage. Die Gesichter von Schauspielerinnen und Sängerinnen wurden bereits häufig in Pornos kopiert. Einer Untersuchung des niederländischen Unternehmens Deeptrace von 2019 zu Folge sind 96 Prozent der entdeckten Deepfakes pornografisch.

Mit Apps und im Internet frei verfügbarer Software kann jedermann kurze Clips und eine nicht perfekte Qualität von Deepfakes erstellen. Qualitativ hochwertige Deepfakes, die zudem nicht nur ein paar Sekunden, sondern viele Minuten lang dauern, sind zeitaufwendig und teuer in der Produktion. Sie kommen deshalb selten vor, auch wenn es sogar auf YouTube Tutorials gibt, die beim Erstellen helfen wollen.

Neben den Bewegtbildern können auch Audios gefälscht werden. Aus Stimmproben lässt sich mit Hilfe von Software Gesagtes erzeugen, das in Wirklichkeit nicht gesagt wurde. Derzeit ist noch relativ viel Ausgangsmaterial nötig, um es neu zu mixen und die Lücken von der künstlichen Intelligenz ergänzen zu lassen. Die Zukunftsperspektive ist aber, dass aus wenigen Sekunden Originalton beliebig viele Sequenzen erstellt werden können.

Hao Li, in Deutschland geborener Informatiker und inzwischen Professor in Kalifornien, gilt als bester Deepfake-Macher der Welt. Er manipuliert Videos im Dienste der Wissenschaft. Sein Gegenspieler ist der kalifornische Professor für digitale Forensik, Hany Farid, einer der wichtigsten Experten in der Analyse digitaler Bilder.

Die gute Nachricht ist: "Deep Fakes" zu erkennen sei einfacher, als sie zu erstellen sagt zum Beispiel Matthias Nießner von der TU München, die auf dem Forschungsgebiet der Deepfake-Erkennung führend ist. Und: Es werden nicht nur die Algorithmen zum Faken der Videos besser, sondern auch die Algorithmen, die solche Fakes erkennen, werden weiterentwickelt.

Amateurhafte Deepfakes sind oft mit bloßem Auge zu erkennen. Indizien, jedoch keine eindeutigen Beweise, können beispielsweise sein:

  • Die Übergänge vom Fake zum realen Bild sind oft nicht sauber. Gesichter können an den Rändern undeutlich und Mundhöhlen verschwommen sein. Zahnreihen sind mitunter gleichmäßiger als bei der wirklichen Person.
  • Licht und Farben stimmen oft nicht überein. Der Hintergrund ist oft schlierig und unscharf, da die KI auf Gesichter „trainiert“ ist.
  • Der Blick wirkt leer, die Blickrichtung unnatürlich und die Augen haben keinen Lidschlag. Zu bedenken ist dabei, dass eine Person vielleicht aufgrund von Erkrankungen kaum blinzelt und es sich um eine echte Aufnahme handelt.
  • Eventuell flackert das Gesicht.


Wenn das Timing stimmt und die Fälschung auf fruchtbaren Boden fällt, muss sie noch nicht einmal besonders gut gemacht sein, um ihre Wirkung zu entfalten. Bild, Text oder im Falle der Deepfakes eben Videos finden dann im Internet eine schnelle Verbreitung. Berufliche Faktenchecker (zum Beispiel in Medienhäusern) oder auch Institutionen klären über Fälschungen und Falschmeldungen auf.

Wenn zum Beispiel der oder die Ex das Gesicht in Pornos schneidet …

Zunächst ist in einem solchen Fall das Recht am eigenen Bild verletzt. § 22 des Kunsturheberrechtsgesetzes verbietet die Nutzung von Bildnissen einer Person ohne deren Einwilligung. Zusätzlich verletzt eine solche Montage sowohl das Persönlichkeitsrecht der abgebildeten Person (Art. 2 Abs. 1, Art. 1 Grundgesetz) als auch die persönliche Ehre.

Strafrechtlich kann der*die Täter*in wegen Beleidigung, Verleumdung oder übler Nachrede sowie wegen des Verstoßes gegen § 33 KunstUrhG angezeigt werden. Hierbei sind bei einer Verurteilung Freiheitsstrafen von bis zu einem Jahr oder eine Geldstrafe möglich.

Schließlich kann sogar der*die Urheber*in der verwendeten Vorlage den*die Täter*in wegen Verstößen gegen das Urheberrecht auf Schadensersatz- oder Unterlassungsansprüche verklagen. Vervielfältigungen ohne Einwilligung des Urhebers sind rechtswidrig; die Montage könnte das sogenannte Urheberpersönlichkeitsrecht verletzen.

Betroffene sollten versuchen, das Video, in dem man durch den Deepfake „mitspielt“, möglichst unzugänglich zu machen und eine Weiterverbreitung zu unterbinden. Eine Möglichkeit ist das Vorgehen gegen die Sozialen Netzwerke, bei denen solche Videos verbreitet werden. Diese sind aufgrund des Telemediengesetzes und des Netzwerkdurchsetzungsgesetzes verpflichtet, solche rechtsverletzenden Inhalte schnell zu prüfen und zu löschen. Auch gegen Suchmaschinen- und Webseitenbetreiber kann man vorgehen.

Zivilrechtlich ist eine einstweilige Verfügung und Klage gegen den*die Veröffentlichende*n möglich. Sogar Schadensersatz- und Unterlassungsansprüche sind möglich.


43