Mehr Zensur ist nicht die Antwort auf alle Facebook-Probleme

Brüste werden gelöscht, rassistische Hass-Postings dürfen bleiben: Was viele an Facebook kritisieren, ist eigentlich die Stärke des sozialen Netzwerks.

|
18 September 2015, 2:00pm

Bild: Peter Massas | Flickr | CC BY-SA 2.0

„So ... mir reichts! Ich ruf Hitler an!" steht über dem Foto von einem Baby, das ein bisschen planlos mit einem Klapphandy spielt. Die Botschaft des Memes ist relativ unmissverständlich—auch, wenn unklar bleibt, ob es Rechtsradikale mit Babys gleichsetzen soll, die technologisch vor 10 Jahren stehengeblieben sind und sich immer noch schwer damit tun, Telefone zu bedienen.

Das Bild kursierte diesen Sommer auf Facebook, wurde von zahlreichen rechten Accounts geteilt—und ist im sozialen Netz keine Ausnahme.

Genau wie viele andere Memes wurde auch dieses bei Facebook wegen Verhetzung gemeldet. Die Standardantwort des sozialen Netzwerks: „Wir haben das von dir wegen Hassbotschaften und -symbole [sic] gemeldete Foto geprüft und festgestellt, dass es nicht gegen unsere Gemeinschaftsstandards verstößt."

Das frustriert User in letzter Zeit immer mehr. Einige sehen Facebook inzwischen als Musterbeispiel für amerikanische Prüderie, bei der Gewalt, Waffen und radikale Meinungen OK sind, aber man sich bei dem kleinsten Anflug von Nacktheit sofort bekreuzigt und nach Zensur schreit (auch, wenn man es Schutz vor Unzucht nennt).

Als Konsequenz dürfen Nazis bleiben, aber Femen muss mit Löschung rechnen. Die Satire-Sendung extra3 hat es im Segment „So geht Facebook" auf den Punkt gebracht und einen guten Nazi einem schlechten Nazi gegenübergestellt. Beide zeigen dasselbe Bild von Hitler, nur einmal mit und einmal ohne rein retuschierte Brüste.

Ein Screenshot davon hat es übrigens auch auf Reddit geschafft, wo es—natürlich—bereits einen eigenen Subreddit zum Thema Hitler mit Brüsten gibt (genannt Titler). Geht man nach der etwas zynischen Meinung der Facebook-Communityrichtlinien-Kritiker, versammelt dieser Bilder-Thread die einzigen Nazi-Bilder, die auf Facebook nicht OK sind.

Lustig ist das nur, weil es einen Nerv trifft. Gerade in der aktuell angespannten Refugee-Situation spült Facebook uns immer wieder den Bodensatz aus rassistischen Angstäußerungen in die Timelines.

Als im Hochsommer die Feldkirchner Feuerwehr fliehenden Menschen eine Wasserabkühlung bot, postete ein Lehrling auf Facebook: „Flammenwerfer währe (sic!) da die bessere Lösung". Wenig später kommentierte eine Grazer Supermarktleiterin den Brand vor dem Lager Traiskirchen mit: „Was? vor den Mauern. In den (sic!) Gebäude wäre besser. schlecht gezielt". Und zuletzt reagierten ein paar Rechte auf die 71 tot aufgefundenen Menschen auf der A4 mit Gammelfleisch-Witzen, die so abartig sind, dass ich sie hier nicht mal zitiert will.

Gelöscht werden solche Postings eher von den Verfassern als von Facebook. Erst kürzlich hat der profil-Redakteur Michael Nikbakhsh deshalb Anzeige gegen Facebook bei Staatsanwaltschaft Innsbruck erstattet. Er wirft dem sozialen Netzwerk „Beitragstäterschaft" vor, weil es nicht entschieden genug gegen verhetzende Aussagen vorgehe.

Ob der Vorwurf stimmt, ist wie so oft Auslegungssache. Laut den offiziellen Gemeinschaftsstandards entfernt Facebook Hass-Kommentare nämlich dann, wenn sie sich direkt gegen konkrete Personen richten—und zwar aufgrund ihrer Ethnie, Nationalität, religiösen Ausrichtung, sexuellen Orientierung, Geschlechtszugehörigkeit oder einer schweren Behinderung beziehungsweise Krankheit.

Liegt kein direkter Angriff vor oder wird das Posting nicht von den Attackierten selbst gemeldet, sieht die Sache schon anders aus. Das trifft auf beiden Seiten einen wunden Punkt: Facebook muss sich den Vorwurf gefallen lassen, sich aus der Verantwortung zu stehlen—und User müssen sich der Kritik stellen, dass sie sich eigentlich als Sprecher für andere aufspielen, von denen sie zu wissen glauben, was diese gerne sagen würden.

In Deutschland hat Facebook auf die immer heftigere Kritik jetzt mit der Einrichtung einer Taskforce reagiert. Das Ziel soll allerdings nicht zwangsweise mehr Löschung sein, sondern vor allem mehr „counter speech" (modern für Dagegenreden), um Ansichten wie Fremdenfeindlichkeit zu hinterfragen.

MOTHERBOARD: Wie Großbritannien seit Jahren seine Web-Zensur ausweitet

Und so ungern das einige User hören: Facebook hat damit absolut Recht. Nicht, weil Brüste schlimmer sind als der Nationalsozialismus oder weil Prüderie und Ignoranz besser wären als Offenheit und Aufklärung. Sondern weil der Vergleich von Busen mit Hitler zwei völlig unterschiedliche Dinge verwechselt (Jugendschutz und Meinungsfreiheit) und weil gerade Aufklärung nach dem Gegenteil von Zensur verlangt.

In diesem Punkt stimmt sogar die Unterstellung, Facebook wäre ein amerikanisches Musterbeispiel. Nicht, weil es puritanisch, protestantisch und prüde ist, sondern weil es die Meinungsfreiheit immer höher hält als die Meinung einzelner, auch (und gerade) wenn diese Meinung von der Mehrheit geteilt wird und es ziemlich einfach wäre, ihr nachzugeben.

Was Facebook besser verstanden hat als alle Zensur-Verfechter im sozialen Netz, ist, dass es zu den großen Errungenschaften genau dieses sozialen Netzes gehört, auf mehr statt auf weniger Dialog zu setzen. Alles andere wäre ein Schritt zurück zu den alten Medien, in denen der Chef bestimmt, was gezeigt wird.

Das einzige, was die Zensur von rechtsradikalen Inhalten bringt, ist mehr falsche Sicherheit.

Ironischerweise setzt Facebook damit auch ein Zeichen gegen das Phänomen der Filterblase, für das sonst umgekehrt genauso stark kritisiert wird: Wenn Facebook Andersdenkende aus dem Feed verbannt, ist das für einige also genauso schlimm, wie wenn es das nicht tut. Der Ruf nach Diversität oder eben Zensur ändert sich je nach Anlassfall—was an sich ein guter Hinweis dafür ist, dass Facebook ihm besser nicht nachkommen sollte, wenn es sich nicht von einer Seite instrumentalisieren lassen will.

Damit ist Facebook übrigens auf einer Linie mit dem Arzt und Juristen Dr. Dr. Rainer Erlinger, der im SZ Magazin ebenfalls dazu rät, Nazis und andere Rechte nicht gleich zu entfreunden, sondern sich der Welt in all ihrer Abgefucktheit zu stellen (meine Worte, nicht seine).

Was man gerne vergisst, ist, dass Menschen mit sehr starken Meinungen dazu, was sein darf, auch eine gewisse Tendenz dazu haben zu ignorieren, was trotzdem ist. Wer glaubt, dass die Dummen immer mehr werden und man die wenigen Verbliebenen vor dem „Dummheitsvirus" schützen muss, indem man das Gedankengut im Netz zurechtstutzt, hat weder die Aufklärung noch das Internet und schon gar nicht das Prinzip von Informationsfreiheit verstanden.

Wozu das im schlimmsten Fall führt, hat sich erst diese Woche wieder gezeigt, als Facebook diesen Beitrag der Satire-Seite Postillion löschen ließ, weil er offenbar von einigen Leuten gemeldet wurde, die wirklich gar nichts wissen—höchstwahrscheinlich nicht einmal, was Satire heißt.

Das einzige, was die Zensur von rechtsradikalen Inhalten bringt, ist mehr falsche Sicherheit. Ja, Zensur bringt weniger Konfrontation mit unliebsamen Meinungen und mehr heile Welt in der Filterblase. Aber das heißt nicht, dass es diese unliebsamen Meinungen deshalb weniger gibt oder die Filterblase deshalb eher die Welt, wie sie ist, abbildet.

Gegen Facebook-Zensur zu sein, bedeutet nicht, sich für Neonazis stark zu machen. Es bedeutet, sich komplizierten Problemen zu stellen. Denn es ist einfach, Hass-Kommentare zu entfernen—viel schwieriger ist es, den Hass selbst zu entfernen.

Markus auf Twitter: @wurstzombie

Mehr VICE
VICE-Kanäle