KI-generierte Bilder verbreiten sich im Kontext des Nahostkonflikts auf den sozialen Medien
Bildrechte: BR / Fritz Espenlaub

KI-generierte Bilder verbreiten sich im Kontext des Nahostkonflikts auf den sozialen Medien

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

Wenn KI die Wahrheit kaputt macht

KI-generierte Bilder zum Nahostkonflikt verbreiten sich tausendfach im Internet - und lassen sich zunehmend nicht mehr als solche erkennen. Das verändert auch unseren Umgang mit Bildern und Videos, die nicht KI-gemacht sind.

Das Kind steht inmitten eines zerbombten Gebäudes neben einer Frauenleiche, das Gesicht und der Pulli mit der palästinensischen Flagge sind blutverschmiert. Doch in den Augen ein ruhiger Blick, die rechte Hand ist hocherhoben. Der Text des dazugehörigen Tweets: "Hebe deine Hand, wenn du an der Seite von Palästina stehst." Der Post wurde hundertfach geteilt und von fast 370.000 Menschen auf "X", vormals Twitter, gesehen.

KI-generierte Bilder zu Nahostkonflikt verbreiten sich tausendfach

Wie viele davon genau genug hingesehen haben, um zu bemerken, dass die erhobene Hand des Kindes sechs anstatt fünf Finger hat – ein eindeutiges Zeichen, dass das fotorealistische Bild KI-generiert ist -, ist unklar.

Mittlerweile wurde das Bild zwar von X mit einem entsprechenden Hinweis versehen, doch zahlreiche andere KI-generierte Bilder verbreiten sich weiterhin rasant auf der Plattform, beispielsweise ein Vater im Trümmerfeld, der vier Kinder auf seinen Schultern trägt, deren Arme und Beine bei genauerem Hinsehen eine unmögliche Anatomie aufweisen. Das Bild, das 22.000 Mal geteilt wurde, hat bislang keinen Hinweis, dass es KI-generiert ist.

KI-Fakes immer schwerer zu erkennen

Bislang konnte man KI-generierte Bilder halbwegs zuverlässig daran erkennen, dass abgebildete Personen gerne mal zu viele Finger oder Arme haben – doch der Fortschritt generativer Bild-KI ist rasant. Die Programme haben gelernt, wie menschliche Hände aussehen und Bilder wie das des palästinensischen Kindes mit sechs Fingern werden wohl bald der Vergangenheit angehören.

Noch eindrücklicher ist diese Entwicklung im Bereich KI-generierter Stimmen und Musik. Sei es ein neuer Beatles-Song oder vermeintlich "geleakte" Songs von Harry Styles – die Grenze zwischen menschengemacht und KI-generiert verschwimmt zunehmend. So können diejenigen, die bewusst im Internet täuschen wollen, nicht nur gefälschte Bilder, sondern auch gefälschte Sprachaufnahmen verbreiten. So kursierte vor wenigen Wochen ein Audioclip mit einer angeblichen Schimpftirade des britischen Politikers und Vorsitzenden der Labour-Partei, Keir Starmer.

Was ist wahr, und was nicht?

Ein wichtiger Grund, weshalb sich KI-Fakes so leicht im Internet verbreiten, ist auch deren leichte Herstellung. Musste man früher noch beträchtliche Zeit oder sogar Geld in Bildbearbeitungsprogramme investieren, gehen die Kosten der Erstellung KI-generierter Inhalte gegen null.

Dies bietet nicht nur neue Möglichkeiten für Akteure mit unlauteren Absichten, sondern auch für jene mit noblerer Motivation: Anfang des Jahres illustrierte Amnesty International einen Menschenrechtsbericht über Kolumbien mit einem KI-Bild und wurde von zahlreichen Stimmen dafür kritisiert. Die Menschenrechtsorganisation argumentierte, dass KI-generierte Bilder eine Darstellung der politischen Proteste im Land erlaubten, ohne die Identität der Demonstrierenden zu gefährden. Ein weiteres aktuelles Beispiel: Die Bilddatenbank Adobe Stock ist gerade in der Kritik, weil sie auf ihrer Plattform KI-generierte Bilder zu den Kämpfen im Gazastreifen anbietet - die Darstellungen von Explosionen und Soldaten können dort ebenso wie menschengemachte Fotos für Geld lizensiert werden.

Der Bamberger Kommunikationswissenschaftler Andreas Jungherr befürchtet, dass der fahrlässige Einsatz generativer KI es noch schwerer machen könnte, online zwischen wahren und unwahren Inhalten zu unterscheiden. Denn je mehr sich KI-generierte Inhalte verbreiten, umso leichter sehen sich auch echte Bilder dem Vorwurf ausgesetzt, KI-generiert zu sein - beste Voraussetzungen, um richtige, aber unliebsame, Informationen zu diskreditieren.

Keine Software kann KI-Inhalte zuverlässig erkennen

Dazu kommt, dass automatische Computerprogramme Fakes nicht eindeutig erkennen können. Im Gegenteil: Oft werden sogar authentische Bilder oder Texte von derartigen Programmen als Fakes gekennzeichnet: Als nach dem Angriff der Hamas am 7. Oktober schockierende Fotos der Gräueltaten auf sozialen Medien kursierten, wurden diese von einem "KI-Detektor" fälschlicherweise als KI-generiert eingestuft.

Gerade bei einem emotional aufgeladenen Thema wie dem Nahostkonflikt lässt sich beobachten, wie unterschiedliche Akteure die immer schwerer werdende Unterscheidbarkeit von echten und KI-generierten Inhalten dafür nutzen, um Aussagen der Gegenseite zu diskreditieren.

Technische Lösungen allein reichen nicht

Schon seit Längerem wird im Zuge der KI-Gesetzgebung der EU diskutiert, eine Kennzeichnungspflicht für KI-generierte Inhalte einzuführen. Dies könnte etwa durch digitale Wasserzeichen-Technologie passieren. Doch auch hier sind keine technischen Lösungen absehbar, die sich nicht mit geringem Aufwand umgehen ließen.

Eine andere Idee ist deshalb, den Spieß umzudrehen und nicht gefälschte Inhalte zu markieren, sondern echte. Die Initiative "Content Credentials", ins Leben gerufen unter anderem von Adobe, will genau das: in den Metadaten eines Bildes soll bereits im Moment der Entstehung unveränderbar eine Art digitales Gütesiegel platziert werden, das sich auch durch künftige Manipulationen der Datei nicht verwischen lassen soll. Gerade hat der Kamerahersteller "Leica" die erste Kamera angekündigt, in der die neue Technologie eingebaut ist.

Trotz derartiger Ansätze müssten wir uns jedoch zukünftig daran gewöhnen, dass Bilder und zunehmend auch Videos, die wir im Internet sehen, potenziell gefälscht sein könnten, argumentiert Jungherr.

Bilder und Videos sollten nicht allein nach ihrer Erscheinung auf ihre Echtheit hin beurteilt werden. "Wichtiger sind andere Signale: Welche Quelle verwendet dieses Bild, wo taucht dieses Bild ansonsten noch auf? Was ist der Sachverhalt, der durch das Bild abgebildet wird? Gibt es andere Bilder, die diesen Sachverhalt auch abbilden?" Jeder Internetnutzer solle es sich zur Gewohnheit machen, sich diese Fragen routinemäßig zu stellen.

🎧 Wie schnell entwickelt sich KI weiter? Und welche Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in "Der KI-Podcast" – dem neuen Podcast von BR24 und SWR.

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!