De regels voor welke foto's Instagram meteen verwijdert zijn uitgelekt

Om “pr-brandjes te voorkomen“ gaan porno en terrorisme meteen offline, maar moderators moeten ook goed opletten bij woorden als 'nazi'.
15.5.18
Afbeelding: Shutterstock

Motherboard heeft een aantal gelekte documenten onder ogen gekregen waarin uitgelegd wordt hoe Instagram optreedt tegen beledigende en illegale content. Ook drugsdealers die hun waar verkopen, terroristen die propaganda pushen, en mensen die wraakporno delen, maken ook allemaal gebruik van het platform.

De documenten laten zien met hoeveel shit sociale netwerken elke dag te maken krijgen. Zo berichtte Motherboard al eerder over de gelekte documenten van Facebook over seksuele uitbuiting.

“Dit zijn heftige, veelvoorkomende overtredingen die voor slechte pr zorgen op Instagram,” valt te lezen in een trainingshandleiding die Motherboard in handen heeft gekregen. Dit verwijst naar de meer problematische inhoud die soms op Instagram verschijnt, zoals terrorisme of drugs.

Instagram-medewerkers kunnen een account uitschakelen als twee of meer onderdelen van een profiel – zoals de gebruikersnaam, bio of profiel – de regels overtreden. Als een profiel leeg is en geen inhoud bevat, is één onderdeel al genoeg om van het netwerk te verdwijnen. Instagram kan een account bannen als meer dan 30 procent van de foto’s of video’s de regels overtreedt, valt ook nog in de documenten te lezen.

Een deel van het trainingsmateriaal dat terrorisme, nazi, kartel, bendes en andere vormen van misbruik opsomt. Afbeelding: Motherboard

Het trainingsmateriaal legt ook uit wanneer een account ook gebant kan worden door comments van andere gebruikers. Als dertig procent of meer van de comments de Instagram-voorwaarden schendt, moet een moderator het account offline halen.

Maar voor sommige content is Instagram veel minder soepel.

“We zijn blij dat we niet tolerant zijn voor de onderstaande overtredingen,” staat op een slide in een presentatie. Vervolgens wordt een overzicht een lijstje getoond met daarin: het verkopen van drugs, wraakporno, seksadvertenties, zelfmoord en zelfverwonding, en terrorisme. Als gebruikers maar één keer iets plaatsen dat in dit rijtje staat, mogen moderators het account meteen blokkeren.

Een screenshot van een tool die door moderators wordt gebruikt, laat verschillende opties zien om aanstootgevende inhoud te melden. Naast de voorgaande voorbeelden zijn er ook andere opties zoals “nazi,” “kartel,” en “bende.” Eerder berichtte VICE al over hoe Mexicaanse drugskartels en Londense bendes gebruik maken van sociale media, om rivalen belachelijk te maken of te pronken met hun handelswaar. Motherboard kwam er ook achter dat een reseller verbonden aan een bedrijf dat versleutelde telefoons aan het Sinaloa-drugskartel verkocht hiervoor adverteerde op Instagram.

Andere opties die Instagram-moderators kunnen aangeven, zijn onder meer geweld, het aanzetten to haat, en een “geloofwaardige dreiging.”

Het trainingsmateriaal vertelt moderators dat ze een zogenaamd ‘progressief beoordelingsproces’ moeten volgen, waarbij ze van het ene deel van het profiel naar het andere gaan om op mogelijke overtredingen te controleren. De moderator kijkt eerst naar de gebruikersnaam, vervolgens naar de bio, de afbeelding, alle andere media, en tot slot naar de comments; zo valt in het trainingsmateriaal te lezen. Hoewel sommige onderdelen van een account misschien afzonderlijk niet de regels overtreden, kan het doel van een account – zoals het verspreiden van wraakporno – duidelijker worden als een moderator elk onderdeel één voor één checkt.

Vorige week berichtte Motherboard al over hoe Facebooks beleid omtrent seksuele uitbuiting, en dick pics in het bijzonder, aan het veranderden is.

De Instagram-trainingshandleidingen vertellen moderators dat ze moeten aangeven of content “seksuele uitbuiting – anders,” als het om necrofilie, seks met dieren, ‘crushing,’ en creepshots gaat. Crushing is als mensen zichzelf of anderen filmen terwijl ze dieren mishandelen om erdoor aan hun trekken te komen. Creepshots zijn close-ups van vrouwen die meestal zonder hun toestemming zijn genomen. Zoals Motherboard onlangs al meldde, heeft Tumblr een enorm probleem met creepshots.

Zoals valt te verwachten, komt een deel van het Instagram-trainingsmateriaal sterk overeen met regels waar Facebook-moderators zich aan moeten houden. Facebook kocht Instagram in 2012 voor 800 miljoen euro en volgens Instagram delen de twee bedrijven hetzelfde Community Operations-team, en lijkt hun beleid dus erg op elkaar. Instagram voegde eraan toe dat er een team van moderators is om 24 uur per dag, zeven dagen per week te reageren. In het totaal spreken die moderators 40 talen en zitten er juridische experts en deskundigen die zich bezighouden met de veiligheid van kinderen, het aanzetten tot haat, en terreurbestrijding in het team. In de trainingsdia’s staat dat afbeeldingen over het uitbuiten van kinderen worden doorgestuurd naar een speciaal team op het hoofdkantoor van Facebook.

Er zijn ook wel wat verschillen: Instagram vertelde dat het bijvoorbeeld een ander beleid heeft rondom hashtags.

Instagram vertelde Motherboard dat als een gebruik iets ziet wat niet in de haak is de rapporteerfunctie in de app de snelste manier is om profielen of berichten te laten beoordelen.

Volg Motherboard op Facebook en Twitter.