BR24 Logo
BR24 Logo
Startseite

Angst vor Unruhen: Facebook rüstet sich für US-Wahl | BR24

© pa/xim.gs/Philipp Szyza
Bildrechte: pa/xim.gs/Philipp Szyza

Facebook will mit harten Bandagen gegen Hass und Fake News kämpfen - wenn das nach der US-Wahl nötig wird.

Per Mail sharen

    Angst vor Unruhen: Facebook rüstet sich für US-Wahl

    Facebook will nach der US-Wahl möglicherweise zu Mitteln greifen, die sonst für Staaten vorgesehen sind, die in Gewalt versinken. Das Netzwerk will beispielsweise die Verbreitung bestimmter Inhalte erschweren. Das könnte auch die Falschen treffen.

    Per Mail sharen
    Von
    • Thomas Moßburger

    Dass aus Worten schnell Gewalt und sogar Mord werden können, das hat Facebook in den letzten Jahren bereits mehrfach erfahren müssen. Unter anderem führten Gerüchte und Hassbotschaften, die über das Netzwerk verbreitet wurden, zu Gewalt gegen Minderheiten in Myanmar und Sri Lanka.

    Facebook selbst gibt hier Fehler zu – und will diese in seiner eigenen Heimat nun offenbar proaktiv vermeiden. Wie das "Wall Street Journal" berichtet, bereitet Facebook sich darauf vor, bei der US-Wahl im Zweifel Mittel einzusetzen, die das Netzwerk eigentlich für Gewalt-Ausbrüche in Staaten wie Sri Lanka und Myanmar vorgesehen hat.

    Scharfe Regeln für virale Inhalte?

    Zu diesen Werkzeugen gehört laut dem Zeitungsbericht, dass grundsätzlich die Verbreitung von Posts gedrosselt werden könnte. Facebook-Beiträge würden dann allgemein weniger schnell über Likes, Kommentare und Co. von Newsfeed zu Newsfeed gespült. Virale Posts würden so seltener und unwahrscheinlicher. Das bremst natürlich auch Lügen und Hassbotschaften, die sonst bei Facebook oftmals schnell die Runde machen.

    Zusätzlich dazu könnte Facebook die Inhalte an sich stärker überwachen. Bisher scannen vor allem Programme die Inhalte automatisch ab. Erscheint auf einem Foto bei Facebook zum Beispiel eine weibliche Brustwarze, wird das Bild entfernt beziehungsweise nie veröffentlicht. Bei Hate Speech und Fake News ist Facebook da oft großzügiger.

    Auch, wenn Lügen und Hass schwerer automatisiert erkennbar sind als sekundäre Geschlechtsorgane, könnte Facebook auch hier nach der US-Wahl rigider vorgehen. Das Netzwerke könnte beispielsweise die Messlatte für das, was das Netzwerk als gefährlich ansieht, nach unten setzen, wie das "Wall Street Journal" schreibt. Die Filterprogramme würden dann mehr Inhalte entfernen.

    Angst vor Unruhen nach US-Wahl

    Ausgerollt werden sollen diese Maßnahmen, falls es nach der US-Präsidentschaftswahl am 3. November 2020 zu Unruhen in den USA kommt. Hintergrund ist eine stark polarisierte amerikanische Gesellschaft, in der ein Lager den Sieg des anderen nicht anerkennen könnte. So stellte Präsident Donald Trump bisher selbst nicht klar, ob er eine Niederlage gegen den Demokraten Joe Biden akzeptieren werde.

    Hinzu kommen von Seiten Trumps Angriffe auf das wegen Corona besonders beliebte Verfahren der Briefwahl. Der Präsident bringt dies immer wieder mit Betrug in Verbindung und baut damit möglicherweise schon jetzt ein Argument auf, das Wahlergebnis nicht zu akzeptieren. Zudem dürfte die Beliebtheit der Briefwahl dafür sorgen, dass das offizielle Endergebnis der Wahl nicht am Wahlabend sondern erst Tage später feststeht. Außerdem drohen Klagen bei Gericht, die bestimmte Auszählungen und Wahlverfahren, die sich von Bundesstaat zu Bundesstaat unterscheiden, prüfen zu lassen.

    Auch diese Unsicherheit könnte, so offenbar Facebooks Sorge, Proteste und Aufstände nach sich ziehen, die durch Lügen, Hetze und Fake News bei Facebook befeuert, auch in Gewalt umschlagen könnten. Für diesen Fall bereitet man sich nun offenbar mit recht konkreten Plänen vor.

    Mehr Kampf gegen Hass und Lügen

    Nach der US-Wahl 2016 war Facebook vorgeworfen worden, mit seiner Passivität gegenüber Lügen und Hass in Verbindung mit der Möglichkeit, Zielgruppen-genaue Werbung zu schalten, den Wahlsieg des Populisten Donald Trump mitverursacht zu haben. Facebook und sein Chef Mark Zuckerberg wiesen die Vorwürfe lange zurück und führten ein sehr breites Verständnis von Meinungsfreiheit als Erklärung für den recht lockeren Umgang mit Hate Speech und Lügen ins Feld.

    So lehnte Gründer Zuckerberg es etwa ab, wie Twitter bezahlte politische Werbung von Facebook zu verbannen und potentiell gewaltverherrlichende Beiträge von Donald Trump mit Warnhinweisen zu versehen. Intern regte sich Mitte 2020 jedoch starker Widerstand gegen diese Haltung bei Facebook. Hinzu kam ein Werbeboykott einiger Unternehmen, da Facebook aus ihrer Sicht zu wenig gegen Hass und Hetze tue.

    Tatsächlich deutete sich bereits in den vergangenen Monaten ein neuer Kurs bei Facebook an. Das Netzwerk löschte ein Wahlwerbe-Video des Trump-Teams wegen Nazi-Symbolik, entfernte ein von Trump geteiltes Video wegen Corona-Falschinformationen und verbannte Kanäle und Accounts rechter Gruppen und auch Trump-naher Personen. Auch Werbung, die das US-Wahlergebnis haltlos anzweifelt, wurde verboten. Zuletzt wurde zudem bekannt, dass Facebook künftig auch Holocaust-Leugnung nicht mehr dulden wird. Nun kommt das scharfe Schwert für den Ernstfall nach der US-Wahl hinzu.

    Auch schwache Stimmen werden unterdrückt

    Auch dieses Schwert ist jedoch ein zweischneidiges. Denn natürlich würde eine Drosselung des Newsfeeds nicht nur Hass und Lügen virale Kraft nehmen, sondern auch hilfreichen und informativen Inhalten. Darunter leiden eben nicht nur Aggressoren und Lügner und Mächtige, sondern auch Schwache, Unterdrückte und Minderheiten, für die soziale Netzwerke wichtige Orte sind, um auf sich aufmerksam zu machen.

    Zudem führt mehr Filtern potenziell auch dazu, dass mehr Beiträge fälschlicherweise entfernt oder weniger sichtbar gemacht werden. Man nennt dieses Phänomen auch "Overblocking". Auch das betrifft letztlich alle Akteure und setzt Facebook zudem ständig dem Vorwurf aus, eine Seite zu bevorzugen. Konservative in den USA behaupten ohnehin seit Jahren, von Facebook und Co. benachteiligt zu werden.

    In Deutschland ist es vor allem die extreme Rechte und der harte Kern der (Corona-) Verschwörungstheoretiker, die sich von den gängigen sozialen Medien gegängelt fühlen. Auch andere Plattformen wie Twitter aber auch Youtube gingen zuletzt härter gegen Hetze und Fake News vor. Manch einer wechselte daher zuletzt verstärkt in das beinahe völlig unregulierte Messenger-Netzwerk Telegram. Aus der Welt verschwinden Hass, Lüge und Hetze selbst bei härtestem Vorgehen von Facebook und Co. also nicht. Auf der 2,5-Milliarden-Nutzer-Plattform Facebook könnten sie aber zumindest weniger werden.

    Hoffen auf eindeutigen Wahlausgang

    Auf Dauer werden die härteren Regeln bei Facebook aber wohl dennoch nicht Bestand haben. Es geht dem Netzwerk wohl offenbar mehr um die bevorstehende US-Wahl als um einen grundlegenden Paradigmenwechsel, wie "Buzzfeed" berichtet. Das Portal beruft sich hierfür auf interne Aussagen von Mark Zuckerberg.

    Der Facebook-Chef deutete dabei zudem an, dass ihm eines wohl am liebsten wäre: ein Wahlausgang mit klarem Sieger, der Unruhen und Gewalt gar nicht erst aufkommen lässt.

    "Darüber spricht Bayern": Der neue BR24-Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!