Betroffene können von Twitter verlangen, dass falsche oder ehrverletzende Tweets über sie gelöscht werden. Auch sinngemäße Kommentare mit identischem Äußerungskern muss Twitter entfernen, sobald die Plattform von der konkreten Persönlichkeitsrechtsverletzung Kenntnis erlangt. "Das Unterlassungsgebot greift nicht nur dann, wenn eine Äußerung wortgleich wiederholt wird, sondern auch, wenn die darin enthaltenen Mitteilungen sinngemäß erneut veröffentlicht werden", entschied das Landgericht Frankfurt am Mittwoch.
Gleiches gelte für illegale Inhalte, die binnen 24 Stunden mehr als zehn Mal weiterverbreitet würden. Bei schuldhafter Zuwiderhandlung droht ein Ordnungsgeld von 250.000 Euro je Fall. Außerdem könnte gegen Manager Ordnungshaft angeordnet werden.
Kläger ist mit seinem Unterlassungsanspruch gegen Twitter erfolgreich
Damit gab das Landgericht Frankfurt dem baden-württembergischen Beauftragten gegen Antisemitismus, Michael Blume, Recht, der einen Unterlassungsanspruch gegen Twitter geltend gemacht hatte. Es geht dabei unter anderem um Tweets, in denen behauptet wurde, Blume hätte eine Affäre oder pädophile Neigungen. Ein anderer Twitter-Nutzer hatte ihm unter anderem Antisemitismus unterstellt.
Keine allgemeine Monitoring-Pflicht für Twitter
Das Gericht erklärte aber auch, dass Twitter keine allgemeine Monitoring-Pflicht mit Blick auf seine rund 237 Millionen Nutzer auferlegt werde. Eine Prüfpflicht bestehe nämlich nur hinsichtlich der konkret beanstandeten Persönlichkeitsrechtsverletzungen.
Anwalt Jun: Ein guter Tag für die Würde des Menschen
Blume sprach von einem "juristischen Erfolg", den er dem amerikanischen Immunologen Dr. Anthony Fauci widme, der in diesen Tagen von Elon Musk direkt auf Twitter angegangen worden sei. "Die Verleugnung von Wissenschaft, die Verbreitung von Hassrede und Verschwörungsmythen ist keine Meinungsfreiheit, sondern ein Angriff auf Menschenleben und jede Demokratie", sagte Blume in einem Statement zum Prozessausgang.
Das Urteil ist allerdings nicht rechtskräftig. Twitter kann vor dem Oberlandesgericht Frankfurt am Main in Berufung gehen. Nach dem Eilverfahren steht noch das Hauptsacheverfahren an. Darin geht es zudem um Schadenersatz, den Blume nach eigenem Bekunden HateAid spenden will. Die Menschenrechtsorganisation hatte Blume in dem Prozess unterstützt.
Blume war vor Gericht vom Würzburger IT-Anwalt Chan-jo Jun vertreten worden. Auch Jun begrüßte das Urteil:
"Heute ist ein guter Tag für die Würde des Menschen (unantastbar, btw.), die Meinungsfreiheit und den demokratischen Rechtsstaat, bei dem Regeln für alle gelten - nicht nur für Milliardäre und anonyme Trolle." IT-Anwalt Chan-jo Jun auf Twitter.
Jun hält es für gut möglich, dass das Verfahren am Ende beim Bundesgerichtshof (BGH) landet. Eine "spannende Frage" wäre, was passiert, wenn der neue Twitter-Chef Elon Musk sagen würde, er wolle sich nicht an gerichtliche Entscheidungen halten, so Jun.
Twitter setzt auf automatische Inhaltsmoderation
Für Twitter ist das Urteil unerfreulich, denn nun stellt sich die Frage, wie der Kurznachrichtendienst Hassbotschaften, Beleidigungen und Verleumdungen von der Plattform entfernt und dafür sorgt, dass sie nicht wieder auftauchen.
Elon Musk hat mehr als die Hälfte der Twitter-Belegschaft entlassen, darunter offenbar auch die Personen, die für die manuelle Moderation von gemeldeten Inhalten zuständig waren. Außerdem hat Twitter vor wenigen Tagen das "Trust and Safety Council" aufgelöst: Dieses 2016 gegründete Gremium hatte Twitter unabhängig bei kritischen Inhalten, die zum Beispiel in Verbindung mit Themen wie Hassrede, Ausbeutung von Kindern, Selbstmord und Selbstverletzung stehen, sowie anderen problematischen Aspekten im Netzwerk beraten.
Algorithmen können unwahre Tatsachenbehauptungen kaum erkennen
Es deutet daher alles darauf hin, dass die Moderation von gemeldeten Inhalten auf Twitter fast ausschließlich durch Algorithmen erfolgen soll. Das gilt als problematisch. Algorithmen können zwar bestimmte unerwünschte Wörter wie Beleidigungen und Schimpfwörter erkennen, tun sich aber schwer damit, unwahre Tatsachenbehauptungen, Verleumdungen oder Hetze zu erkennen, bei denen es auf die konkrete Formulierung und den Kontext ankommt.
Auch Chan-jo Jun hatte BR24 im Vorfeld gesagt, dass die algorithmische Moderation nicht funktioniere. Man könne zwar Algorithmen verwenden, um rechtswidrige Inhalte zu finden. "Aber die Entscheidung, ob etwas wirklich entfernt werden muss, muss am Ende ein Mensch treffen."
In einem ähnlich gelagerten Fall hatte Jun die Grünen-Politikerin Renate Künast vor Gericht gegen Facebook vertreten und die Löschung von erfundenen Zitaten erwirkt. Für seinen Einsatz hatte der Würzburger Jurist im September 2022 den Max-Dortu-Preis für Zivilcourage erhalten.
Der Artikel wurde mit Reaktionen von Michael Blume und Chan-jo Jun aktualisiert.
Das ist die Europäische Perspektive bei BR24.
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!