Psychische Gesundheit

Warum es gut ist, dass Instagram jetzt Bilder mit selbstverletzendem Verhalten zensiert

Nach dem Suizid einer 14-Jährigen wird sich Instagram ändern. Aber ein Problem bleibt.

von Sebastian Meineck
11 Februar 2019, 11:53am

Bild: Shutterstock | siam.pukkato

"Ich habe keinen Zweifel, dass Instagram half, meine Tochter zu töten", sagte Ian Russell am 22. Januar im Interview mit dem britischen TV-Sender BBC. Russell machte die Plattform für den Suizid der 14-jährigen Molly verantwortlich. Sie habe sich beeinflussen lassen von den Instagram-Nutzerinnen, die Beiträge über Depressionen, selbstverletzendes Verhalten und Suizid veröffentlichten. Dutzende britische Medien verwendeten den Satz "Instagram helped kill my daughter" als Schlagzeile. Sogar der britische Gesundheitsminister forderte Instagram zum Handeln auf. Jetzt hat der Konzern reagiert.

"Wir erlauben keine Bilder, die Selbstverletzungen explizit zeigen", so Instagram-Chef Adam Mosseri in einem neuen Blogpost des Unternehmens, als Beispiel nennt er Schnittwunden. Auch Bilder, die nicht ausdrücklich Selbstverletzungen zeigen, etwa verheilte Narben, sollten schwerer aufzufinden sein: Instagram möchte sie aus dem Suchmodus, der Hashtag-Suche und dem Explore-Modus verbannen.

Gegenüber dem Telegraph sagte Mosseri zum Vorwurf, Instagram sei an Mollys Tod mitverantwortlich: "Das ist eines der Dinge, die dich in der Brust treffen, und die du nicht mehr los wirst." Eines ist klar: Ohne den massiven Druck aus Politik und Medien hätte Instagram wohl kaum so schnell gehandelt. Denn dass Teeanger auf Instagram regelmäßig Bilder ihrer blutigen Unterarme präsentieren, ist schon seit Jahren bekannt. Im Jahr 2017 hatte zum Beispiel Broadly Instagram auf das Problem angesprochen. Damals verfolgte die Plattform einen anderen Ansatz. Damit sich Menschen über ihre Probleme austauschen könnten, wolle man Diskussionen über selbstverletzendes Verhalten ermöglichen.

Die Bilder können zum Nachmachen motivieren

Handelt Instagram jetzt übereifrig – oder packt die Plattform endlich ein lange bestehendes Problem an? Die Wissenschaft hat dazu eine klare Meinung. Viele Menschen, die sich selbst verletzen, erleben Depressionen, Hoffnungslosigkeit und Angststörungen, wie eine Metastudie aus dem Jahr 2015 zusammenfasst, die im medizinischen Fachblatt Clinical Psychology Review veröffentlicht wurde. Das selbstverletzende Verhalten helfe ihnen, vereinfacht gesagt, mit einer Flut an Emotionen klarzukommen und sich zumindest zeitweise besser zu fühlen. Das Problem: Bilder von Menschen, die sich selbst verletzen, könnten vor allem Jugendliche in schwierigen Lebenslagen dazu bewegen, selbst zur Klinge zu greifen.

"Studien zeigen, dass das Zeigen von Bildern mit selbstverletzendem Verhalten Nachahmer motivieren kann", erklärt der Psychologe Andreas Baranowski von der Universität Gießen im Gespräch mit Motherboard. Er hält deshalb Instagrams Kurswechsel für richtig. "Psychologisch ist es sinnvoll, Bilder mit selbstverletzendem Verhalten zu zensieren."

Auch Tina In-Albo, die an der Uni Koblenz-Landau zu selbstverletzendem Verhalten bei Kindern und Jugendlichen forscht, sagt: "Es gibt sicherlich eine Art Ansteckungsgefahr." Trotzdem sieht sie die Zensur solcher Bilder ambivalent. Immerhin könnten sich Betroffene über soziale Medien Unterstützung und Hilfe holen.

"Instagram heißt für mich, dass ich jemanden zum Reden habe, wenn ich will, und dass mir Leute Rat geben", schreibt eine Instagram-Nutzerin, die anonym bleiben möchte. Auf ihrem Instagram-Kanal zeigt sie regelmäßig Bilder ihrer teils blutenden, teils verheilten Schnittwunden. Außerdem gebe sie auf Instagram auch anderen Nutzerinnen Ratschläge. "Das gibt mir ein großartiges Gefühl. Ich rate ihnen, etwas Gutes zu essen oder einen ihrer Lieblingsfilme zu schauen."

"Wir werden nicht in der Lage sein, derartige Bilder sofort zu entfernen"

Ein anderer Nutzer, der Bilder seiner Verletzungen postet, schreibt: "Instagram ist ein Ort, wo ich akzeptiert werde. Ich bekomme Aufmerksamkeit für mein selbstverletzendes Verhalten. Aber ich weiß, dass ich dafür keine Aufmerksamkeit bekommen sollte." Genau das ist ein Problem, das auch Psychologe Baranowski sieht: Instagram sei als Bilder-Plattform nicht gerade gut geeignet, um Menschen mit selbstverletzendem Verhalten auf positive Weise zu vernetzen und auf Hilfsangebote aufmerksam zu machen, so Baranowski. Im Mittelpunkt stünden nämlich Fotos und Likes, weniger Austausch und Gespräche.

Wer auf Instagram mit einem selbst verfassten Beitrag eine Diskussion über Selbstverletzung eröffnen will, muss eben ein Bild posten – und da liegt es besonders nahe, die eigenen Schnittwunden zu präsentieren. Baranowski habe schon selbst Menschen behandelt, die auf Instagram Bilder ihrer Verletzungen geteilt hätten. "Sie haben davon berichtet, dass Likes für diese Bilder sie eher angespornt haben, weiterzumachen." Nicht gerade die Anreize, die betroffene Personen in diesem Moment brauchen.

Auch Instagram hat sich mit diesem Problem ausführlich auseinandergesetzt, wie aus dem ausführlichen Statement des Instagram-Chefs hervorgeht. "Bilder, die Selbstverletzung explizit zeigen" hätten das Potenzial "unbeabsichtigt Selbstverletzung zu fördern", heißt es dort. Das gelte auch dann, wenn eine Person mit den besten Absichten über ihre Erfahrungen und ihren Kampf mit Selbstverletzung sprechen wolle.

Keine neuen Support-Mitarbeiter geplant

Screenshot Instagram
Ein Klick auf "Hilfe holen" führt zu Ratschlägen und Telefon-Hotlines | Bild: Screenshot | Instagram

Auch wenn Instagram nun nach Jahren eine klare Position gefunden hat – das größte Problem ist die Umsetzung. Aktuell lassen sich auf der Plattform nämlich noch immer mit einer gezielten Hashtag-Suche mehrere Bilder finden, in denen Nutzer ihre zerschnittenen Unterarme präsentieren, wenn auch deutlich weniger also noch vor Monaten. In einer Kommentarspalte unter einem solchen Bild sprechen Nutzer immer noch offen darüber, wo sie ihre Rasierklingen herbekommen. Zumindest bekommen Menschen, die nach diesen Hashtags suchen, schon seit längerer Zeit zuerst ein Popup-Fenster angezeigt, das auf Hilfsangebote verweist; erst dann lassen sich die teils verstörenden Bilder anschauen.

Instagram-Chef Mosseri schreibt in einem Blog-Eintrag: "Wir werden nicht in der Lage sein, derartige Bilder sofort zu entfernen". Das ist ernüchternd – aber immerhin ehrlich. Schließlich werden auf Instagram in jeder Sekunde massenhaft neue Bilder und Videos hochgeladen.

Technische Lösungen wie automatische Bilderkennung scheinen noch nicht ausgefeilt genug zu sein, um problematische Bilder von selbstverletzendem Verhalten vollständig zu erkennen. Instagram kündigt in seinem aktuellen Statement nämlich an, weitere Machine-Learning-Technologien erst noch entwickeln zu müssen. Das heißt im Klartext: Instagram hat aktuell zwar den Wunsch, aber nicht die Mittel, die Lehren aus dem Fall Molly vollständig umzusetzen.



Motherboard hat Instagram gefragt, ob die Firma zumindest zusätzliche Support-Mitarbeiterinnen einstellen möchte, die sich gezielt mit den Beiträgen befassen, die nicht durch technische Mittel erkannt werden können. Als Antwort teilte das Unternehmen mit, dass die aktuellen Mitarbeiter mit den neuen Richtlinien geschult werden würden. In anderen Worten: Nein, nach Mollys Tod werden offenbar keine weiteren Support-Mitarbeiter eingestellt.

Bei Depression, selbstverletzendem Verhalten oder akuten Suizidgedanken gibt es zahlreiche Stellen, die professionelle Hilfe anbieten und das eigene Leid lindern helfen. Die Hotlines sind Tag und Nacht erreichbar. Auch wer Opfer von Mobbing wird, findet in Deutschland bei vielen Stellen Hilfe.

Folgt Sebastian auf Twitter und Motherboard auf Facebook , Instagram , Snapchat und Twitter