FYI.

This story is over 5 years old.

Tech

Tausende Bilder werden auf Twitter für pädophile Fantasien missbraucht

Und in den seltensten Fällen erfahren die Opfer überhaupt, was mit ihren Bildern passiert.

Bild: Clay Patrick McBride | Getty

Twitter führt schon lange einen mühsamen Kampf gegen anstößige und illegale Inhalte, die auf seinem Netzwerk kursieren. Ob es nun IS-Unterstützer sind, die blutige Propaganda teilen, oder rechtsextreme Rassisten, die prominente Nutzer angreifen: Twitter stand schon oft wegen eines zu lockeren Umgangs mit solchem Content in der Kritik. Ende November hat Twitter neue Features vorgestellt, die Nutzern einen besseren Schutz vor Troll-Attacken und Hate-Speech bieten sollen. Unter anderem soll die Zeit auf Twitter für Nutzer angenehmer werden, in dem sie Notifications und bestimmte Inhalte stummschalten können. Doch ein weiterer, häufig übersehenes Problem von Twitter ist seine Rolle als Tauschbörse für sexualisierte Bilder von Kindern: Kürzlich veröffentlichte ein Twitter-Account die Nutzernamen von Tausenden mutmaßlichen Kinderpornografie-Postern—und zeigte damit, dass sich dieses Problem nicht einfach stumm schalten lässt.

Anzeige

Folgt Motherboard auf Facebook, Instagram, Snapchat und Twitter

Eine Motherboard-Analyse zeigt dabei, welche Ausmaße das Problem tatsächlich hat. Ein Blick auf ein spezifisches Hashtag, das bei mutmaßlichen Kinderpornografie-Konsumenten beliebt ist, macht schnell klar, dass es in der Tat einen stetigen Strom anstößiger Inhalte gibt—direkt auf dem Netzwerk und für alle auffindbar. Twitter versucht zwar, das Problem durch Suspendierungen einzelner Accounts in den Griff zu bekommen, wird der Lage dadurch jedoch nicht Herr.

(Warnung: Einige der folgenden Tweets, auf die sich dieser Artikel bezieht, verwenden explizite und verstörende Sprache.)

Wir haben eine Woche lang Python-Scripts genutzt, um die öffentlich geteilten Tweets mit sexualisierten Bildern von Kindern in Echtzeit zu sammeln und zu analysieren—und so mögliche Muster in der Verbreitung zu finden. Auf manchen Hashtags teilten Nutzer Erwachsenenpornografie, doch viele der Tweets bezogen sich auch auf Kinder oder enthielten Bilder von Kindern.

Nicht alle Accounts, die derartiges Material teilen, verwenden jedoch Hashtags. Manche Nutzer teilen einfach Bilder ohne Text, sodass die Tweets schwieriger zu finden sind. Im August postete ein Nutzer ein Foto von einem wohl unter 10-jährigen Mädchen in einem Cheerleader-Outfit. Darunter stand der Text: „Jemanden zum Bilder tauschen und vielleicht ein Foto cumtributen." Der Ausdruck „Cumtributing" steht für die Praxis, das Männer auf ein Bild masturbieren und dann ein Foto davon hochladen. Es dauerte nicht lange, bis Twitter-User antworteten: „mmmm du siehst jung und lecker aus :) Wie alt bist du?", antwortete ein User auf den Tweet. „OMG! Absolut perfekt schön!", schrieb ein anderer.

Anzeige

Ein weiterer Tweet aus demselben Monat enthält vier Fotos von einem Mädchen, eines davon im Bikini, und dazu den Text: „15 und so hübsch." „würde sie trotzdem ficken", antwortet ein Nutzer.

Beispiel eines Tweets, der ein sexualisierendes Bild eines sehr jungen Mädchens enthält. Viele der Tweets, die Motherboard gefunden hat, waren um einiges expliziter, doch diese möchten wir hier nicht zeigen.

Mithilfe von Python-Scripts war es uns möglich, die Accounts, die derartige Bilder mit anderen Twitter-Nutzern in ihrer Follow-Liste teilen, genauer zu analysieren. Viele von ihnen folgten denselben Accounts. Darunter waren Camgirls, Frauen, die ihre eigenen Fotos teilen, Accounts mit Erwachsenenpornografie und Twitter-Nutzer, die Fotos von Mädchen posten—anscheinend ohne, dass diese davon wissen, in welchen Kreisen die Bilder landen.

Das Python-Skript sammelte auch eine Handvoll öffentlicher Tweets mit Bildern, die mit hoher Wahrscheinlichkeit echte Kinderpornografie enthielten—eines schien ein junges Mädchen bei der Masturbation zu zeigen; ein weiteres zeigte vermeintlich ein junges Mädchen, das seine Genitalien in einem expliziten Selfie entblößt, das irgendwie seinen Weg auf Twitter gefunden hat. Manche der Accounts trugen das Kürzel „CP", eine verbreitete Abkürzung für "child pornography", in ihren Nutzernamen. Einer hatte sogar ein nacktes minderjähriges Mädchen als Profilbild.

Die meisten Fotos, die Motherboard auf diese Weise gefunden hat, waren allerdings für sich genommen nicht sexuell explizit. Teilweise sind die Mädchen voll bekleidet, tragen Badeanzüge oder eine Schuluniform. Aber der Tausch und die Veröffentlichung der Fotos in diesem sexualisierten Kontext ist dennoch äußerst besorgniserregend. Nicht zuletzt weil manche der Tweets die Namen der Abgebildeten nennen, was also bedeuten könnte, dass diese Individuen unmittelbar zu Zielen der Täter geworden sind. Viele Fotos scheinen direkt von den Social-Media-Profilen der Mädchen zu stammen.

Anzeige

Selbst wenn viele der Fotos nicht illegal sind, gibt es gute Gründe, etwas dagegen zu tun. „Dann hier geht es darum, wen wir beschützen, welche Normen wir zulassen, und vor was wir die Augen verschließen", erklärt Whitney Phillips gegenüber Motherboard. Sie beschäftigt sich als Buchautorin und Dozentin an der Humboldt State University schon lange mit dem Umgang mit Online-Belästigung.

Philips zieht eine Parallele zwischen solchen Aktivitäten auf Twitter und Reddits berüchtigtem „Creepshots". Dort teilten Nutzer Fotos von Frauen, die ohne ihre Zustimmung entstanden waren, und sexualisierten sie durch ihre Kommentare. Theoretisch waren viele dieser Fotos nicht illegal—dennoch war ihre Verwendung anstößig und konnten als Belästigung gesehen werden.

„Reddit musste also handeln und eine Wahl treffen: Würden sie das Gesetz entscheiden lassen, was angemessen war und was nicht?", erklärt Philips. 2012 verbot Reddit das Creepshots-Forum.

„Twitter befindet sich jetzt in einer ähnlichen Lage, denn es gibt sehr viel von diesem wirklich schrecklichen Verhalten", betonte Philips gegenüber Motherboard. Auch wenn es Unterschiede zwischen den Plattformen gibt—da bei Twitter über lediglich über einzelne Konten auf einer zentralen Plattform und nicht über Unterforen wie bei den Subreddits kommuniziert wird, ist das Problem durchaus vergleichbar.

Twitter wollte sich trotz mehreren Anfragen nicht zu unseren Recherchen oder dem Umgang mit dem Problem äußern.

Anzeige

Klar ist allerdings, dass Twitter durchaus gegen gewisse Formen von Kinderpornographie vorgeht: Im Fall von illegalen, kinderpornografischen Bildern hat Twitter in vielen Fällen dem US-amerikanischen National Center for Missing and Exploited Children (NCMEC) Informationen zukommen lassen. Die Organisation konnte dann wiederum den Behörden helfen, die Identitäten der Kinderpornografie-Poster zu ermitteln.

Im August gab ein Mann aus Florida mutmaßlich zu, Kinderpornografie in Bildern und als Video auf Twitter gesammelt zu haben, wie der Miami Herald berichtet. Inzwischen ist er in 11 Punkten wegen Besitzes von Kinderpornografie angeklagt, weiterhin wird ihm auch das Veröffentlichen des illegalen Materials auf Twitter vorgeworfen. Im selben Monat plädierte ein Mann auf nicht schuldig, der in 31 Punkten des Besitzes von Kinderpornografie angeklagt war. Er hatte mutmaßlich Fotos auf Twitter gepostet, in denen Kinder im Alter von 7 bis 15 sexuelle Handlungen ausführen.

Doch was passiert mit den zweckentfremdeten Bildern, die theoretisch legal sind? Während unseres Analysezeitraums beobachteten wir, dass manche Accounts, die zum Beispiel Mädchen in Schuluniform zeigten, Tage oder Wochen später suspendiert waren. Doch viele der Accounts bleiben bis heute online—des Weiteren kommen neue Konten schnell dazu.

Einer der suspendierten Accounts wies dabei eine Anzahl von rund 3.000 Follower auf. Das Konte hatte sogar über die offizielle Twitter-Funktion eine Umfrage gestartet, um das Alter der Follower zu erfragen. Mehr als 60 Prozent der fast 300 Umfrageteilnehmer gaben an, sie seien über 20.

Anzeige

Doch bereits kurz nach seiner Löschung kehrte der User wieder zurück und versuchte, erneut Kontakt mit anderen Accounts herzustellen. Wenn es darum geht, dieser Art Content einen Riegel vorzuschieben, und überhaupt in seinem Netzwerk für Ordnung zu sorgen, ist Twitter stets einen Schritt hinterher.

„[Name des alten Accounts] wurde gebannt, das hier ist mein neuer account, bitte teilen", schrieb der Nutzer am 29. August, nachdem Twitter ihn suspendiert hatte. Ein weiterer Account, der mit diesem interagiert hat, ist noch immer online. Er hat mehr als 10.000 Follower und bereits mehr als 1.000 Bilder getweetet.

Twitter mag nun Maßnahmen ergriffen haben, um der Online-Belästigung beizukommen, doch das Stummstellen einzelner Suchwörter und dergleichen hilft in diesem Fall niemandem. Die Bilder tauchen höchstwahrscheinlich auch nicht im Stream ihrer Opfer auf, sollten diese überhaupt auf Twitter sein—sie werden also in vielen Fällen nie erfahren, was mit ihren Bildern passiert. Stattdessen werden sie in dem Netzwerk ohne ihr Wissen getauscht und sexualisiert. Viele der Mädchen wissen wahrscheinlich nicht einmal, dass ihre Fotos überhaupt im Netz zirkulieren.

Bei Straftatbeständen wie Belästigung, Cyber-Mobbing und unangemessene Inhalte bewegen sich die Twitter-Nutzer sowie das Netzwerk selbst in einer Grauzone, die komplizierte Fragen aufwirft: Muss Twitter gegen diese Accounts vorgehen, selbst wenn vieles davon nicht illegal ist? Welche Verantwortung hat Twitter gegenüber den Menschen, die auf diesen Fotos zu sehen sind? Und wird Twitter angesichts der Dimension des Problems sich weiterhin ein zähes Katz-und-Maus-Spiel mit verschiedenen großen Accounts liefern, darunter solche, die sexualisierte Bilder von Kindern zeigen?

„Wenn man zulässt, dass diese Art von Verhalten sich ausbreitet, schafft man letztendlich einen Ort, an dem die Leute sich nicht sicher fühlen, und an dem sie weniger Zeit verbringen wollen", sagt Phillips.