Tech

YouTube kriegt es einfach nicht hin, Hasskommentare zu löschen

Kein Mensch durchblickt die Meldeverfahren bei YouTube – daher haben wir 100 Hetzkommentare geflaggt. 88 sind nach Monaten immer noch da. Unser Test zeigt: YouTubes Umgang mit Hass und Holocaustleugnung ist erbärmlich.

von Richard Diesing
24 Oktober 2017, 9:53am

Bild: imago

Was haben YouTube und ein Faultier gemeinsam? Sie machen wenig, und das auch nur sehr langsam. Das ist zumindest unser Fazit, nachdem wir einen Monat lang Hasskommentare der übelsten Sorte auf der Videoplattform gemeldet haben.

Dabei galt YouTube in der Öffentlichkeit bislang eigentlich als Musterschüler im Einsatz gegen Online-Hassrede. Jugendschutz.net bescheinigte der Seite in einem Test eine zuverlässige Löschquote von über 90 Prozent strafbarer Inhalte, Justizminister Heiko Maas lobte die Videoplattform in einem Facebook-Post, und das Handelsblatt titelte sogar "Vorbild YouTube" in einem Artikel über den Kampf sozialer Netzwerke gegen Hasskommentare und Hetze.

Was wie eine einwandfreie Erfolgsgeschichte für YouTube klingt, sieht in der Realität ganz anders aus – zumindest wenn es um die Kommentare von Nutzern und nicht nur um hochgeladene Videos geht. Denn wer über die Plattform surft und sich die Kommentarspalten unter den Clips anschaut, der liest dort massenweise verleumderische, hetzerische und gewalttätige Inhalte, die dort eigentlich gar nicht stehen dürften: "Alle Linken in die Gaskammer", "Es wird Zeit, dieses Scheiß Türkenpack auszurotten und zu vernichten!!!" oder "Weg mit der Volksmörderin, aufhängen die Schlampe" (im Original stilecht vollständig in Großbuchstaben) sind typische Beispiele, nach denen man nicht lang suchen muss.

So lief unser Experiment ab

100 solcher Kommentare haben wir mit einem regulären Nutzerkonto gemeldet, um die Verfahren und Muster hinter der Löschung besser zu verstehen. Alle verstoßen eindeutig gegen YouTubes eigene Regeln, den sogenannten Community-Richtlinien der Plattform. Viele der Kommentare sind auch nach deutschem Recht eindeutig strafbar – zum Beispiel wegen Volksverhetzung oder Leugnung des Holocausts. Der Anspruch von YouTube lautet, dass solche Inhalte binnen 24 Stunden entfernt werden. Nach vier, sechs und acht Wochen haben wir überprüft, wie viele der gemeldeten Kommentare noch online geblieben sind.

Screen Shot 2017-09-27 at 13.28.05.JPG

Unsere Bilanz: Es ist erschreckend, wie wenig YouTube gegen Hass und Hetze unternimmt. Denn nach zwei Monaten waren insgesamt gerade mal 12 der 100 von uns gemeldeten Kommentare nicht mehr sichtbar. Vier davon haben wir persönlich an den YouTube-Sprecher geschickt – sie wurden umgehend gelöscht.

Acht Wochen nach unseren ersten Meldungen im Juli 2017 sind noch immer 88 Prozent der Hetze im Netz und für jeden sichtbar. Bis zum Zeitpunkt der Veröffentlichung unseres Artikels ist kein weiterer Hasskommentar gelöscht worden. Manche stehen dort schon seit mehreren Jahren, wie sich den Rohdaten unserer Recherche entnehmen lässt.

Warum es das Ergebnis eigentlich gar nicht geben dürfte

Das Ergebnis suggeriert ein massives Versäumnis und sogar einen Gesetzesbruch von Seiten YouTubes – aus zwei Gründen. Der erste ist, dass Google, denen die Videoplattform gehört, 2016 zusammen mit Facebook, Twitter und Microsoft einen Verhaltenskodex "zur Bekämpfung illegaler Online-Hetze" unterzeichnet und der EU-Kommission vorgestellt hat. Darin verpflichten sich die Unternehmen, den Großteil der gemeldeten Hasskommentare innerhalb von 24 Stunden zu überprüfen und, falls erforderlich, zu löschen.

Der zweite Grund ist das Ende Juni verabschiedete Netzwerkdurchsetzungsgesetz. Seit dem 1. Oktober ist das umstrittene Gesetz in Kraft. Das NetzDG fordert von Plattformen wie YouTube und Facebook, "offenkundig strafbare Inhalte" innerhalb von 24 Stunden, nachdem sie gemeldet wurden, zu löschen. Bei nicht eindeutigen Fällen liegt die Frist bei einer Woche. Wer sich systematisch nicht daran hält, dem blühen bis zu 50 Millionen Euro Strafe.

Doch bei Kommentaren, die nach mehreren Monaten immer noch online sind, kann man mit gutem Recht sagen: YouTube kommt in unserem Test diesen Verpflichtungen nicht mal im Ansatz nach.

Die 100 Kommentare, die wir gemeldet haben, stehen für genau jene Inhalte, die YouTube nicht auf seiner Plattform sehen will: Mordaufrufe, Rassismus, Relativierungen der Naziverbrechen oder Vergewaltigungsfantasien. Ein Beispiel aus unserem Datensatz: "Den Holocaust gab es auch NIEEE , es ist eine dreckige WELT LÜGE!!!!! (...)" Seit über einem Jahr steht diese 21 Mal gelikete Aussage neben Dutzenden anderen Holocaust-Leugnungen als Highlight-Kommentar unter einem Video, in dem der britische Bischof Williamson behauptet, es hätte keine Gaskammern gegeben.

Die ultimative Blackbox: Melden kann jeder – Rückmeldung gibt es nicht

Solcherlei Inhalte zu finden ist auf YouTube nicht schwer. Videos zu Schlagwörtern wie "Flüchtlinge" oder "Auschwitz" werden häufig mit strafbaren Texten kommentiert. Mit diesen Begriffen haben wir schnell 100 besonders heftige Kommentare zusammentragen können. Mit einem Klick auf "Report Spam or Abuse" wird der Kommentar geflaggt und an YouTube zur Bearbeitung gesendet.

Das Meldeverfahren auf YouTube läuft anders ab als auf anderen Netzwerken: Während Facebook dem User Bescheid gibt, ob ein von ihm gemeldeter Kommentar gelöscht wurde und einen Grund für die Entscheidung anführt, hört man von YouTube nach einer Nutzermeldung – nichts mehr.

Wir können daher nicht nachvollziehen, ob die zwölf verschwundenen Kommentare aus unserem Experiment von YouTube oder vom Kommentator selbst entfernt wurden. Mehr noch: Kein Nutzer weiß, ob die geflaggte Kommentare überhaupt von YouTube bearbeitet werden.

Dass wir uns für unseren Test auf lediglich 100 Kommentare beschränken, liegt daran, dass es schon für diese Menge ziemlich aufwändig ist, nachzuverfolgen, wie der Meldeprozess abläuft. Da YouTube an Nutzer keine Informationen über ihre Meldungen verschickt, muss man immer wieder manuell nachschauen, ob die gemeldeten Inhalte noch da sind.

Warum wird die eine Holocaustleugnung gelöscht, die meisten anderen jedoch nicht? Nach welchen Regeln arbeiten die Löschteams des Netzwerks? Obwohl wir diese Fragen gern beantwortet hätten, können wir mit unseren Daten keine belastbare Antwort darauf finden, wenn YouTube nur einen Bruchteil der 100 gemeldeten Kommentare überhaupt entfernt.

YouTube äußert sich nicht zu unseren Ergebnissen, will aber unsere Daten

Im August 2017 konfrontieren wir YouTube Deutschland mit unseren Ergebnissen – zu diesem Zeitpunkt waren nur 2 Prozent der 100 Kommentare nicht mehr im Netz. Wir schicken außerdem vier von uns gemeldete Kommentare als Beispiele mit. Wenige Stunden nach unserer Anfrage sind diese vier Kommentare nicht mehr auffindbar. Obwohl wir mehrfach um ein Interview bitten, damit wir YouTubes Löschkriterien und die Meldeverfahren besser verstehen können, erhalten wir am Ende lediglich ein schriftliches Statement einer PR-Agentur – und führen ein längeres, freundliches Hintergrundgespräch mit dem YouTube-Pressesprecher, aus dem wir aber nichts für diesen Artikel verwenden dürfen.

Auf unsere detaillierten Nachfragen geht das Unternehmen nicht ein. "Die YouTube Community-Richtlinien verbieten ganz klar Inhalte, die Gewalt oder Hass gegen Einzelpersonen oder Gruppen aufgrund von bestimmten Attributen fördern", heißt es in dem allgemein gehaltenen Statement. Man überprüfe von Nutzern gemeldete Inhalte "unverzüglich" und lösche Videos und Kommentare, die gegen die eigenen Richtlinien verstoßen oder illegal seien. Nach welchen Regeln das geschieht und ob die Mitarbeiter, die zum Löschen abgestellt sind, überhaupt direkt von YouTube angestellt sind oder überforderte Mitarbeiter eines Subunternehmens wie bei Facebook, darüber verrät YouTube nichts. "Unsere Teams arbeiten 24 Stunden täglich, um geflaggten Content zu überprüfen und gegebenenfalls zu löschen", heißt es in dem Statement lediglich.

Deutlich macht YouTube allerdings, dass das Unternehmen gern unsere gesamten Rohdaten mit Links zu allen gemeldeten Inhalten vor der Veröffentlichung unseres Artikels hätte – vermutlich, um die restlichen der 100 Kommentare schnell händisch zu entfernen und Kritik an der Unternehmenspraxis vorzubeugen. Doch damit würde sich YouTube seiner Verantwortung, eigenständig und gesetzeskonform nach einer Nutzermeldung zu löschen, entziehen. Die Rohdaten der über Monate nicht entfernten Kommentare veröffentlichen wir daher an dieser Stelle.

Verantwortung delegiert: Wie Freiwillige für YouTube das Netzwerk nach Hass und Hetze durchkämmen

Statt selbst wirklich aktiv zu werden, hat YouTube eine interessante Gratis-Methode erfunden, um die unangenehme Arbeit auszulagern – und zwar an die eigene Community. Ein Sprecher des Netzwerks verweist auf das seit 2012 laufende sogenannte "Trusted Flaggers-Programm". Das "erlaube" ausgewählten Usern, Videos oder Kommentare schneller und effizienter zu melden, die gegen die Richtlinien verstoßen. "Hier arbeiten wir auch mit ausgewählten NGOs wie zum Beispiel Jugendschutz.net zusammen", teilt YouTube mit. Auf weitere Nachfragen über den Umfang des Programms in Deutschland geht das Unternehmen nicht ein.

Einer, der schon länger als Trusted Flagger arbeitet, ist der Student Leo Wattenberg. Er ist Top Contributor bei Google – und räumt für YouTube freiwillig das Netzwerk auf. Er meldet vor allem Videos, die gegen die YouTube-Community Standards verstoßen: "Einfach, weil Videos leichter zu finden sind", erklärt er gegenüber Motherboard. Einige Trusted Flagger würden ihren Fokus aber auch auf Kommentare legen, erzählt er.

Für seine wichtige und in Teilen auch verstörende Arbeit bekommt er von YouTube keinen Cent – nur ein bisschen Ruhm in Form einer kleinen Plakette neben seinem Nutzernamen und die Einladung zum ein oder anderen Vernetzungstreffen. Warum sich die Nutzer so einen undankbaren Job aufhalsen? "Die Leute sind Trusted Flagger, weil ihnen das wichtig ist", so Wattenberg.

Meldet Leo Wattenberg einen Inhalt, gelangt dieser schneller auf die Schreibtische der YouTube-Löschtruppe, die den Kommentar dann entfernen kann. Er wisse allerdings nicht, ob die YouTube-Löschteams die Kommentare zusammen mit dem Video begutachten oder isoliert sehen. Manche Kommentare, so Wattenberg, seien "vor allem im Kontext des Videos problematisch" und würden deshalb womöglich online bleiben. Auf unseren Datensatz dürfte das allerdings nicht zutreffen. Unsere Testkommentare sind keine situationsabhängigen Grenzfälle – sondern gehören sowohl losgelöst als auch unter einem beliebigen Video nicht auf eine große Plattform wie YouTube.

Meilenweite Diskrepanz in den Zahlen: Warum Jugendschutz.net so viel bessere Ergebnisse einfahren kann

Das Ergebnis unseres Tests hat uns selbst überrascht. Bisher lagen zu YouTubes Kampf gegen Hasskommentare nämlich nur die äußerst positiven Zahlen aus einem ähnlichen Test von Jugendschutz.net vor. Das "Kompetenzzentrum von Bund und Ländern" mit Sitz in Mainz arbeitet im gesetzlichen Auftrag und wird unter anderem vom Familienministerium finanziert. Auch sie gehören zu der Liga der Trusted Flagger, welche YouTube in ihrem Statement an Motherboard explizit als Partner hervorhebt.

Überrascht ist man bei Jugendschutz.net nicht über unser Ergebnis. "Im Rahmen einer Spezialrecherche haben wir das Meldeprozedere bei YouTube getestet", erklärt eine Sprecherin von Jugendschutz.net gegenüber Motherboard am Telefon. Gemeint ist die vielzitierte Studie im Auftrag des Justiz- und Familienministeriums über den Umgang Sozialer Netzwerke mit Hassrede aus dem März 2017, die Heiko Maas so lobte. Dabei habe man "leider die Erfahrung gemacht, dass auf einfache Nutzermeldungen bisweilen unzureichend reagiert wird", so die Sprecherin. Warum so viele unserer gemeldeten Kommentare noch auf der Plattform stehen, kann aber auch sie sich nicht ganz erklären.

Die Plattform schneidet in dieser Studie trotzdem besser ab als in unserem Test: Von 58 Kommentaren, die Jugendschutz.net unter einem regulären Nutzer-Account meldete, löschte YouTube im Jugendschutz.net-Test immerhin 49 nach wenigen Tagen. Allerdings floss selbst dieses Ergebnis nur sehr gering in die letztlich ermittelte Löschquote von beeindruckenden 90 Prozent aller gemeldeten strafbaren Inhalte ein. Denn wichtiger sei bei YouTube als Video-Netzwerk, wie mit gemeldeten Videos umgegangen werde, so Jugendschutz.net.

Die Gesamt-Löschquote im Test von jugendschutz.net: 91% der gemeldeten Inhalte wurden nach der Nutzermeldung gelöscht, darunter Profile, Kommentare und Videos. Bild: Studie Löschung rechtswidriger Hassbeiträge bei YouTube

Außerdem erklärt sich die Diskrepanz in den Zahlen durch ein Verfahren, das laut Jugendschutz.net am vielversprechendsten sei: Die direkte Meldung per E-Mail an eine speziellen Ansprechpartner von Google Deutschland. Denn Jugendschutz.net kann nicht nur mit seinem Trusted Flagger-Accounts Inhalte an YouTube melden, sondern hat auch einen direkten E-Mail-Draht zum Unternehmen als schnellste und effizienteste Methode.

YouTube verdient seinen Ruf als Musterschüler nicht

Was bleibt also übrig von den Lobeshymnen auf YouTube? Nicht viel, zumindest nicht, wenn es um Hasskommentare geht. Man kann weder vom "Vorbild YouTube" sprechen, noch die Videoplattform als Vorbild für die Umsetzung eines Gesetzes nennen, was mehr Engagement gegen Hassrede von Betreibern sozialer Netzwerke fordert.

Nach unserem Experiment verstärkt sich vielmehr der Eindruck, dass YouTube mit seinem Trusted-Flagger-Programm zwar viel Mühe an die Community delegiert, wenn es um strafbare Videos geht. Bei Kommentaren aber schaut die Plattform wohl noch weniger genau hin – und eine Transparenz des Meldeverfahrens für die Nutzer ist faktisch nicht vorhanden.

Bis dahin können wir Nutzern nur eine Empfehlung geben: Wenn ihr auf einen strafbaren oder inakzeptablen Inhalt stoßt und YouTube euren gemeldeten Kommentar ignoriert, dann meldet ihn an Trusted Flagger im gesetzlichen Auftrag – wie zum Beispiel Jugendschutz.net – die eure Anfrage direkt an YouTube weiterleiten können und personell besser ausgestattet sind als einzelne Trusted Flagger.

Tatsächlich meldet Jugendschutz.net laut eigener Aussage vor allen Dingen Inhalte, die andere Nutzer direkt über ein Beschwerdeformular namens "Hotline" einreichen können. Es ist nur eine der vielen traurigen Pointen zur erstaunlich ineffizienten Löschpraxis bei YouTube: Das vielversprechendste Verfahren zur Löschung von Hassrede auf einem der größten sozialen Netzwerke wird auf den Seiten eines halb-staatlichen Kompetenzzentrums, das kaum jemand kennt, per Formular abgewickelt.

Redaktionelle Mitarbeit: Theresa Locker