Exklusiv

Interne Dokumente geben Einblick, welche rechtsextreme Hetze auf Facebook erlaubt ist – und welche nicht

Motherboard vorliegende geheime Trainingsunterlagen zeigen, wann Facebook einen hetzerischen, rechten Beitrag löscht – und wann er bleiben darf. Bei Pepe dem Frosch ist der Konzern besonders streng.

von Joseph Cox; Übersetzt von Sandra Sauerteig
31 Mai 2018, 9:14am

Diese Folie aus dem Trainingsmaterial zeigt, wie Facebook mit Pepe dem Frosch umgeht | Screenshot: Motherboard

Facebook hat sich öffentlich gegen Hassrede auf seiner Plattform positioniert. Aber was tut der Konzern tatsächlich gegen Gruppen und Personen, die Hass und Gewalt verbreiten? Interne Dokumente, die Motherboard vorliegen, verraten nun genauer, wann Moderatoren rassistische und rechtsextreme Inhalte löschen.

Dass Facebook seine Richtlinien an aktuelle Entwicklungen anpasst, zeigt sich am Umgang mit einer bekannten Comicfigur: Pepe der Frosch. Denn die Bedeutung von Pepe hat sich in den letzten Jahren stark gewandelt. Während der US-Präsidentschaftswahlen 2016 hat die sogenannte Alt-Right den Frosch als Maskottchen für Intoleranz und Rassismus auserkoren. Das ging soweit, dass die US-amerikanische Anti-Defamation League Pepe als Hasssymbol einstufte. Matt Furie, der Erfinder von Pepe, wehrt sich dagegen, dass seine Figur von rechten Gruppen missbraucht wird.

Auch Facebook hat eine strenge Position zu Pepe, das geht aus internen Dokumenten hervor, mit denen Facebook seine Moderatoren schult. "Pepe der Frosch wurde von vielen Hate Groups adaptiert, um hasserfüllte Nachrichten zu vermitteln", heißt es in dem Trainingsdokument zu "Gefährlichen Organisationen" für Facebook-Moderatoren. Als Hate Groups bezeichnet Facebook Organisationen, die in den Augen des Netzwerkes wiederholt damit aufgefallen sind, diskreminierende Hetze gegen bestimmte schützenswerte Gruppen wie zum Beispiel Geflüchtete zu verbreiten.

Wenn es nach dem internen Dokument geht, dann möchte Facebook also bestimmte Bilder von Pepe von der Plattform löschen. Das ist ungewöhnlich, denn es widerspricht Facebooks üblichem Vorgehen.

Facebook behandelt Pepe anders als andere Comicfiguren

Normalerweise greift der Konzern nicht ein, wenn Nutzer Bilder von Comicfiguren oder Charakteren aus Videospielen posten – selbst, wenn damit Hass verbreitet wird. Im Trainingsmaterial findet sich als Beispiel ein Bild von Homer Simpson, der auf einem Röntgenbild statt eines Gehirns ein Hakenkreuz im Schädel hat.


Auf VICE: Aufstand der Rechten – Unterwegs bei Europas größtem Nationalisten-Treffen


In Deutschland würde ein solches Bild wohl gelöscht werden, daran lässt Facebook auf seiner Infoseite zum sogenannten NetzDG keinen Zweifel. Unter das NetzDG fällt demnach auch das "Verwenden von Kennzeichen verfassungswidriger Organisationen". Zumindest im US-Raum würden Facebook-Moderatoren den Trainingsdokumenten zufolge dieses Bild aber nicht löschen, wenn es gemeldet würde.

Für Pepe den Frosch gelten in den USA besondere Regeln. Im Trainingsmaterial steht ausdrücklich, dass Pepe der Frosch gelöscht werden soll, wenn er im Zusammenhang mit Hassbotschaften gezeigt wird. Das wird anhand von zwei Bildern erklärt: Im ersten starrt der Frosch einfach nur auf seine Hände – alles okay. Das zweite Bild zeigt Pepe aber in einer SS-Uniform vor einem Konzentrationslager. Dieses Bild sollen Moderatoren löschen, heißt es auf der Folie.

Facebook unterscheidet zwischen Rassismus und Nationalismus

Aus den Trainingsdokumenten wird deutlich, dass Facebook seinen Umgang mit Hassrede und Hate Groups insgesamt überdacht hat. Nach den rechtsextremen Ausschreitungen in der US-amerikanischen Stadt Charlottesville haben Facebook-Moderatoren neue Anweisungen erhalten, vor allem im Hinblick auf amerikanische "White Supremacists" – also Menschen, die eine "weiße Vorherrschaft" propagieren.

Aus den im Januar aktualisierten Trainingsdokumenten geht hervor, dass Facebook zwischen White Supremacists, weißen Nationalisten und Separatisten unterscheidet. Demnach erlaube Facebook keine Beiträge, in denen White Supremacy verherrlicht, unterstützt oder dargestellt wird. Vergleichbare Äußerungen über weißen Nationalismus und Separatimus werden hingegen auf Facebook geduldet.

Diese Differenzierung wird in dem Dokument wie folgt erklärt: Nationalismus sei "eine extreme rechte Bewegung und Ideologie, die aber nicht immer mit Rassismus einhergeht (zumindest nicht explizit)". Facebook merkt außerdem an, dass "einige weiße Nationalisten den Begriff White Supremacy bewusst meiden, weil er negative Konnotationen hat".

Ein Ausschnitt aus Facebook-Dokumenten
Ein Ausschnitt aus den Facebook-Dokumenten, in denen die Positionen zu White Supremacy, weißem Nationalismus und Separatismus erläutert werden | Screenshot: Motherboard

Facebook räumt im eigenen Trainingsmaterial ein, dass die Abgrenzung dieser Gruppen nicht immer leicht sei, weil einige Organisationen oder Personen sich selbst nicht eindeutig definieren. Auf einer anderen Folie beantwortet Facebook die Trainingsfrage "Kann man auf Facebook sagen, dass man Rassist ist?" klar mit "Nein". Denn als Rassist würde man mindestens einer der Gruppen Hass entgegenbringen, die per Definition von Facebook geschützt werden.

Unterlagen zeigen, wie Facebook "Hass" definiert

Facebook ordnet Personen, prominente Nutzer und die sogenannten Hate Groups nach "starken, mittleren und schwachen Signalen" ein, das geht aus einem Dokument über Hassrede in den USA hervor. Ein starkes Signal sei demnach, wenn jemand Gründer oder prominentes Mitglied einer Hate Group ist. Als "mittel" werde eingestuft, wer den Namen oder Symbole einer verbotenen Hate Group nutzt oder entmenschlichende Bezeichnungen für bestimmte Gruppen verwendet. Eine Verbindung zu einer verbotenen Hate Group betrachtet Facebook als schwaches Signal. Dazu zählt auch die gemeinsame Teilnahme an Aufmärschen.

Facebook unterscheidet bei der Einstufung von Hate Groups
Facebook unterscheidet bei der Einstufung von Hate Groups zwischen "starken", "mittleren" und "schwachen" Signalen | Screenshot: Motherboard

Facebook hat Motherboard gegenüber bestätigt, dass sie Personen und Gruppen anhand von verschiedenen Signalen einstufen. Ein Kriterium ist die Frage, ob sie andere aufgrund ihrer Herkunft, Religion oder anderer bestimmter Eigenschaften physisch angegriffen oder zu Gewalt gegen sie aufgerufen haben.

"Unsere Regeln gegen Hate Groups und Personen sind altbewährt und deutlich. Wir lassen diese Gruppen nicht auf Facebook zu, weil wir keine Plattform für Hass sein möchten", erklärte Facebook weiter. "Mit technischen Mitteln und Mitarbeitern arbeiten wir mit Hochdruck daran, extremistische Inhalte und Hate Groups von unserer Plattformen auszumerzen."

Folgt Motherboard auf Facebook, Instagram, Snapchat und Twitter