| BR24

 
 

Bild

Auge mit reflektiertem Bildschirm
© picture alliance/All Canada Photos
© picture alliance/All Canada Photos

Auge mit reflektiertem Bildschirm

YouTube ist die größte Video-Plattform der Welt - der Einfluss der Seite ist enorm. Und kaum ein Netzwerk ist ein so beliebtes Ziel für extremistische Videos. Im Februar landete ein Video auf Platz 1 der YouTube Trends, in dem ein Überlebender eines Amoklaufs in Florida indirekt beschuldigt wurde, ein bezahlter Schauspieler zu sein. 2017 hörten einige Plattformen damit auf, auf YouTube Werbung zu schalten, weil ihre Spots vor Clips islamistischer Extremisten gezeigt wurden. Und typische Nutzer werden oft schon auf der Startseite mit Verschwörungstheorien und rechten Inhalten konfrontiert.

Wut und Angst ganz oben

Würde man versuchen, sich allein anhand der Vorschläge YouTubes ein Bild über die Lage der Gesellschaft zu machen, gäbe es Anlass zur Sorge: Wut und Angst sind hier stärker vertreten als irgendeine andere Emotion. Das hilft denen, die wissen, wie man Wut und Angst für sich nutzt. Die britische Zeitung The Guardian fand heraus, dass im US-Wahlkampf 2016 Pro-Trump- und Anti-Clinton-Inhalte deutlich öfter auf der Startseite oder unter Videos empfohlen wurden, als Videos aus dem anderen politischen Lager.

Wer ein Video mit klarem politischem Einschlag anklickt, wird mit hoher Wahrscheinlichkeit noch deutlich mehr davon empfohlen bekommen - auch immer extremere Meinungen. "In Anbetracht der eine Milliarde Nutzer könnte YouTube eines der mächtigsten Radikalisierungsinstrumente des 21. Jahrhunderts sein", schreibt die Soziologin Zeynep Tufekci.

Ein Ex-Mitarbeiter übt Kritik

Ein ehemaliger YouTube-Mitarbeiter hat es sich zur Aufgabe gemacht, über YouTubes Vorliebe für extremistische Inhalte aufzuklären. Guillaume Chaslot arbeitete von 2010 bis 2013 mit am Empfehlungs-Algorithmus, der für die ganzen fragwürdigen Vorschläge verantwortlich ist. Jetzt betreut er Algo Transparency, ein Programm, das automatisch die Videos auf YouTube identifiziert, die am häufigsten empfohlen werden. Zum Thema "Merkel" sind das im Moment Videos eines britischen Neokonservativen und eines schwedischen Nationalisten. Nachrichten oder neutrale Inhalte? Fehlanzeige. Diese kleine Stichprobe steht beispielhaft steht für einen klar erkennbaren Trend: Videos, die Wut und Angst verbreiten, werden bevorzugt. Das kann jeder bei AlgoTransparency selbst überprüfen.

Die zwei Videos, die YouTube zum Thema "Merkel" am häufigsten vorschlägt, sind beide scharfe Kritik von rechts

Die zwei Videos, die YouTube zum Thema "Merkel" am häufigsten vorschlägt, sind beide scharfe Kritik von rechts

Wie funktioniert der YouTube-Algorithmus?

Um zu verstehen, warum der YouTube-Algorithmus eine bestimmte Art von Videos bevorzugt, muss man den Algorithmus selbst verstehen. Denn natürlich will YouTube seinen Nutzern möglichst die Videos empfehlen, die den Nutzern auch gefallen könnten. "Anfangs hat Youtube dafür nur auf die Klicks bei einem Video geschaut", erklärt Guillaume Chaslot im Interview für den BR-Podcast "Hier nur privat". "Aber was, wenn jemand ein Video anklickt und es dann sofort wieder zumacht? Um festzustellen, ob ein Video beliebt ist, haben wir uns deswegen auf die 'Watchtime' konzentriert – also auf die Frage, ob ein Video komplett geschaut wird oder nicht. Denn je länger du ein Video schaust, desto mehr Werbung kann YouTube dir zeigen."

It's the Watchtime, stupid!

Videos über Verschwörungstheorien nutzen diesen Mechanismus besonders gut aus, sie provozieren eine hohe Watchtime. Während man bei einem Kochvideo ganze gerne mal schnell durchskippt, schaut man ein Video, in dem erklärt wird, dass die US-Regierung den elften September selbst verursacht hat, komplett an - von vorne bis hinten. "Die ganze Prämisse dieser Videos ist, dass die ganze Welt dich anlügt", sagt der Ex-YouTube-Mitarbeiter Chaslot. "Wenn du ihnen das abkaufst, denkst du irgendwann, dass du die einzige Wahrheit auf YouTube findest. Deswegen verbringen viele Verschwörungstheoretiker auch so viel Zeit auf YouTube. Das gibt eine Menge Watchtime – also empfiehlt der Algorithmus die Videos weiter."

Das Problem: Verschwörungstheoretiker und Extremisten sind sehr untypische Nutzer. Sie sehen sich auch stundenlange Videos ganz an und die auch noch in hoher Zahl, oft sind das zudem ausschließlich Videos zu ein und demselben Thema. Aber YouTube lernt von diesen Nutzern - und schließt daraus: Was sie schauen, muss besonders gut sein. Also wird es möglichst vielen Leuten empfohlen. Darüber hinaus haben Kanäle gelernt, den Algorithmus für sich auszunutzen - mit einer bestimmten Videolänge, Stichwörtern und viel Interaktivität in Form von Kommentaren. Wer den Algorithmus durchschaut hat, der hat YouTube auf seiner Seite.

Kein Algorithmus ist neutral

YouTube hat Kritik an seinem Empfehlungsverfahren immer wieder zurückgewiesen. "Unsere Such- und Empfehlungssysteme reflektieren das, was Menschen auf YouTube schauen. Sie sind nicht voreingenommen, sie spiegeln Zuschauerinteressen wider", sagte ein Sprecher dem Guardian. Tatsächlich wäre es falsch, anzunehmen, der YouTube-Algorithmus würde per Definition rechte Inhalte bevorzugen. Der Algorithmus kennt kein links und rechts, er kennt nur Aufmerksamkeit und fehlende Aufmerksamkeit. Aber nichts wird so aufmerksam, oft und interaktiv geschaut, wie Videos, die Wut und Angst verbreiten.

Zu dem Standpunkt, dass der Algorithmus für sich genommen neutral sei, hat Guillaume Chaslot eine klare Meinung: "Das stimmt nicht", sagt er. "Natürlich kann ein Algorithmus voreingenommen sein, allerdings auf eine Art, die selbst seine Autoren nicht verstehen. Als wir daran gearbeitet haben und der Algorithmus anfing, bestimmte Videos zu empfehlen, hatten wir keine Ahnung, warum er die Videos mochte. Wenn er rassistische Videos empfiehlt, wissen wir nicht: Ist jetzt der Algorithmus rassistisch? Oder ist er nur ein Lautsprecher für den Rassismus der Nutzer?"

Flucht aus YouTubes System

Die Abhängigkeit von YouTubes Algorithmus hat seltsame Blüten getrieben - auch abseits von politischen Videos. Denn wer dem Algorithmus das gibt, was er will, hat Erfolg - egal ob das irgendein Mensch versteht. Das erklärt auch den Erfolg von den absurden und bisweilen jugendgefährdenden Videos in "ElsaGate", einem der vielen YouTube-Skandale der jüngeren Vergangenheit. YouTube müsste sich in Zukunft weniger auf den Faktor Watchtime und mehr auf Verantwortung konzentrieren. Und dafür endlich aufhören, seinem eigenen Algorithmus zu vertrauen.

Mehr zum Algorithmus und Verschwörungstheorien auf YouTube: Ab Freitag, 16.11. im Bayern 2-Podcast Hier nur privat - Was das Internet bewegt.