Advertentie

Bij Facebook houden ze zelfs bij hoelang hun moderators naar de wc gaan

Mensen die aanstootgevende content beoordelen krijgen nauwelijks de tijd om dat zelf mentaal te verwerken, en als ze even een minuut van hun plek zijn moeten ze dat verantwoorden.

door David Gilbert
14 januari 2020, 11:01am

Toen Valera Zaicev een paar jaar geleden in Dublin als moderator voor Facebook ging werken, wist hij dat hij behoorlijk gewelddadige content te zien zou krijgen. Maar wat hij niet wist, was dat Facebook zou bijhouden hoe vaak hij naar de wc moest.

“Zelfs als je even naar het toilet wil, moet je in- en uitklokken. Als je iets later bent, moet je je verantwoorden,” vertelt hij aan VICE. “Ik vind het beschamend en vernederend.”

Facebook, dat de meerderheid van zijn moderatie uitbesteedt aan meer dan 15.000 externen, heeft zijn werknemers niet altijd zo strak aan het lijntje gehouden. Toen de nu 33-jarige Zaicev zich in juli 2016 aansloot tot het moderatieleger, kreeg hij een professionele werkplek en intensieve trainingen, en voelde hij zich goed behandeld.

Dat veranderde snel. Toen het aantal moderators in Dublin explodeerde – van 120 naar 800 mensen binnen twee jaar – werden de arbeidsomstandigheden slechter en verdwenen de trainingen.

In 2018 waren er wereldwijd tienduizenden moderators, en begon Facebook een ‘time-managementsysteem’ uit te proberen dat zo in elkaar zat dat iedere minuut van de dag werd bijgehouden – inclusief lunchpauzes, trainingen, ‘welzijnpauzes’ voor bijvoorbeeld yoga, en zelfs toiletbezoekjes. Dat zeggen Zaicev en een huidige werknemer, die wegens privacyredenen anoniem wil blijven.

Facebook heeft de afgelopen jaren veel kritiek gekregen op de manier waarop het met schadelijke content omgaat. Het bedrijf heeft minstens een half miljard dollar uitgegeven aan het inzetten van menselijke moderators, naast dat het algoritmen heeft die ook in de gaten houden wat er op de pagina’s verschijnt.

Het werk dat deze moderators doen is van essentieel belang: ze zijn de eerste verdedigingslinie tegen schadelijk en verboden materiaal. En toch zeggen ze dat ze slecht betaald worden door Facebook, en geen hulp krijgen als ze daarom vragen. Het heeft geleid tot veel geestelijke gezondheidsproblemen, en het bedrijf wordt binnenkort zelfs aangeklaagd omdat het zou weigeren om een veilige werkomgeving aan te bieden.

Als Facebook-moderators moeten bepalen of ze bepaalde content wel of niet toelaten, moeten ze een document volgen dat ‘de bijbel’ wordt genoemd, en elke moderator krijgt daarnaast een ‘kwaliteitsscore’.

“Je mag vier of vijf fouten per maand maken – het gaat erom dat je maximaal een foutmarge van 2 procent hebt, oftewel een kwaliteitsscore van 98 procent,” zegt Chris Gray, een voormalige Facebook-moderator die elf maanden voor het bedrijf werkte. “Dus als je in je eerste dagen al vier, vijf fouten hebt gemaakt, weet je al dat je voor de rest van de maand genaaid bent.”

Gray hield een posttraumatische stressstoornis aan het werk over. Afgelopen maand spande hij een rechtszaak aan tegen Facebook en CPL – een van de bedrijven waar het sociale netwerk mee samenwerkt, dat duizenden contentbeoordelaars in dienst heeft in de VS, Europa en Azië. Ze zijn aangeklaagd omdat ze een “psychologisch trauma” hebben veroorzaakt door moderators onder slechte omstandigheden te laten werken terwijl ze naar aanstootgevend materiaal moeten kijken.

Van tientallen, zo niet honderden moderators wordt verwacht dat ze soortgelijke rechtszaken zullen aanspannen. Een bron van het advocatenbureau van Gray, Coleman & Partners, vertelde VICE News dat ze nog deze maand nieuwe stukken zullen aanleveren bij het gerechtshof in Dublin.

Toen we de beweringen van deze voormalige en huidige moderators voorlegden aan CPL, wilde het bedrijf niet reageren op onze vragen. En Facebook wilde niet zeggen of het echt zo is dat moderators iedere minuut van de dag moeten verantwoorden. “Het welzijn van de mensen die content voor Facebook beoordelen blijft onze topprioriteit,” liet een woordvoerder van Facebook weten.

De moderators merken daar weinig van. Facebook biedt sessies aan waarbij je advies kunt krijgen, maar ze kunnen daar amper gebruik van maken: ze moeten constant alles in de gaten houden, ze voelen een zware druk om aan kwaliteitsstandaarden te voldoen en het beleid verandert continu.

“Er zitten duizenden moderators in Europa, en ze werken allemaal onder omstandigheden die schadelijk zijn voor hun geestelijke gezondheid, en die wat ons betreft tegen de wet indruisen,” zegt Cori Crider. Zij is directeur van Foxglove, het Britse advocatenkantoor dat de groep bijstaat in de rechtszaken. “Binnen Europa moet je aan strenge wetten voldoen om je werknemers te beschermen, en wat ons betreft moeten Facebook en andere socialmediabedrijven veel meer doen om een veilige werksfeer te creëren voor de moderators.”

Facebook-moderators beoordelen content als het niet door de beugel kan volgens het eigen algoritme, of als een van de miljarden wereldwijde gebruikers dat heeft aangegeven. De meerderheid is vrij onschuldig, maar er zit ook materiaal tussen van bijvoorbeeld seksueel misbruik of geweld.

Elke keer wanneer moderators inklokken, krijgen ze een zogenaamd ‘gameplan’, een soort schema waarin staat hoeveel content ze moeten bekijken en in welke volgorde. Dat gaat ook om haatberichten, intimidaties en zelfs berichten over automutilatie.

Gray zegt dat CPL moderators een streeftijd geeft die ze aan alle content moeten besteden. Die tijd hangt af van de content zelf, maar volgens Gray ligt het meestal ongeveer op een minuut.

Van sommige content is vrij duidelijk te zien dat er regels worden overtreden, waardoor het dus weinig tijd kost om ze te verwerken. Maar er zitten ook veel twijfelgevallen bij, en in dat geval moeten de moderators de Implementation Standards van Facebook raadplegen – ook wel bekend als ‘de bijbel’.

VICE heeft een kopie van deze bijbel ingezien, die gepubliceerd is in maart 2018. Het document bevat 10.000 woorden en bestaat uit 24 verschillende categorieën, die ingedeeld zijn in drie hoofdgroepen: schadelijk gedrag, gevoelig materiaal en wettelijke overtredingen.

Volgens de regels kunnen moderators kiezen of ze de content negeren of verwijderen. Als ze het verwijderen, moeten ze de content tot in detail omschrijven en er verschillende tags aan geven, zodat het onder relevante categorieën komt te vallen. Die informatie wordt dan weer gevoed aan de algoritmen van Facebook. De moderators zijn dus eigenlijk de software aan het trainen die ze op een dag misschien wel gaat vervangen.

De bijbel wordt elke twee weken geüpdatet. Het is best een handig overzicht, maar omdat er zoveel uiteenlopende content wordt gepost zit het tegelijkertijd vol vage, algemene beschrijvingen.

“Je zou wat generieke regels moeten hebben die iedereen makkelijk kan toepassen in uiteenlopende situaties,” zegt Gray.

In veel situaties hebben moderators geen flauw idee wat ze er precies mee aanmoeten. “Ik heb dagen meegemaakt dat we met z’n tienen op een scherm zaten te turen, en we op een ander scherm de beleidsregels hadden geopend, en we er gewoon niet uit kwamen hoe we dit op de video gingen toepassen,” zegt Gray.

Het is vrijwel nooit mogelijk om een lastig geval door te spelen naar een Facebook-medewerker met meer ervaring. Ze moeten hoe dan ook een beslissing maken, en als die fout is, heeft dat gevolgen voor de algehele kwaliteitsscore.

Elke maand bepaalt een team van auditors steekproefsgewijs of de moderators het bij het goede einde hebben gehad. Die auditors zijn moderators met een bovengemiddeld hoge kwaliteitsscore.

Moderators krijgen vervolgens de kans om in beroep te gaan tegen de beslissingen van de auditors, maar dat moeten ze wel binnen 48 uur doen. Alle moderators die we spraken zeggen dat ze dat hebben gedaan, omdat ze hun kwaliteitsscore hoog proberen te houden.

Als moderators verkeerde beslissingen maken – content op Facebook laten staan die verwijderd had moeten worden, of vice versa – dan krijgen ze een aantekening van de auditor. Het komt echter ook voor dat auditors moderators straffen als ze de juiste beslissing hebben genomen, maar om de verkeerde reden.

De auditors zijn niet bepaald onfeilbaar, en lang niet altijd in staat om te verantwoorden waarom ze een bepaalde keuze hebben gemaakt. In een screenshot van een discussie tussen een auditor en een moderator dat we hebben bekeken, is te zien dat een auditor geen eenduidend antwoord kon geven of een post waarin stond dat iemand “zichzelf maar eens om moest leggen” online moest blijven of niet.

“Auditors komen uit verschillende landen en spreken verschillende talen, dus ze weten vaak niet hoe iets in de lokale context overkomt,” zegt Zaicev.

Facebook faalt er niet alleen in om goed gekwalificeerd personeel voor het modereerproces in dienst te nemen, het bedrijf staat ook toe dat de persoonlijke gegevens van de moderators in de verkeerde handen vallen.

Zaicev is een van de meer dan duizend moderators van wie de identiteit per ongeluk zichtbaar werd voor de accounts die ze geblokkeerd hadden. In het geval van Zaicev ging dat om leden van de Volksrepubliek Donetsk en de Volksrepubliek Loegansk, twee pro-Russische separatistische bewegingen die in Oost-Oekraïne opereren.

Facebook heeft zijn verontschuldigingen aangeboden aan Zaicev en beloofde om zijn werknemers beter te beschermen. Zoals het sociale netwerk de afgelopen tijd wel vaker heeft gedaan, vanwege alle schandalen waarbij het betrokken is geweest.

Facebook houdt vol dat het de werkomstandigheden heeft verbeterd, maar dit nieuwe beleid en de druk om een hoge kwaliteitsscore te halen hebben ervoor gezorgd dat de moderators nog minder tijd hebben om alle traumatiserende beelden te verwerken die ze tegenkomen.

Het werk was al stressvol, maar nu de moderators iedere minuut van hun shift bij moeten houden, is dat alleen nog maar meer het geval. Het nieuwe systeem is zo efficiënt dat als de moderator even zijn plek verlaat, hij meteen wordt uitgelogd. En dat moeten ze vervolgens verantwoorden aan hun leidinggevende.

Normaal gesproken zouden moderators ook wat kunnen bijkomen van de heftige content door gebruik te nemen van een van de wellness-programma’s die Facebook aanbiedt. Maar ook dat is lastiger door dit nieuwe time-managementsysteem: in plaats van naar yoga te gaan, hebben moderators al hun tijd nodig om met auditors te discussiëren over beslissingen die ze hebben gemaakt, of dat de bijbel hoognodig geüpdatet moet worden.

Een huidige moderator van Facebook zegt dat de mensen die in een grote markt actief zijn, zoals het Engelstalige gebied, “niet bepaald aangemoedigd” worden om gebruik te maken van de ontspanningsmogelijkheden, en het lastig is om de dag door te komen zonder je mentaal uitgeblust te voelen.

De werkdruk verschilt per land. Moderators uit de Filippijnen en Thailand hebben bijvoorbeeld gezegd dat ze op een dag zo duizend posts moeten beoordelen, terwijl een Europese moderator er ook best minder dan 150 kan krijgen, zij het meer in lastigere categorieën, zoals kindermishandeling.

Of de moderators nou problemen hebben met de content, veel stress ervaren of een combinatie van die twee, managers hebben vaak totaal niet door wanneer ze tegen problemen aanlopen.

Een moderator die in 2017 en 2018 veertien maanden bij CPL werkte, vertelt dat hij besloot om het bedrijf te verlaten nadat een manager hem had bestraft omdat hij een paniekaanval achter zijn computer had gekregen. Hij was er net achter gekomen dat zijn moeder, die al op leeftijd was en in een ander land woonde, een beroerte had gekregen en vermist was.

“Op de dag dat ik de meeste stress ooit had, en ik bang was dat ik mijn moeder zou verliezen, besloot mijn teamleider – een 23-jarige met amper werkervaring – te dreigen dat ik mijn baan zou verliezen,” zei de moderator, die niet bij naam genoemd wilde worden.

Als de werknemers zich gedwongen voelen om het bedrijf te verlaten, zijn ze vaak bang om zich tegen Facebook of CPL uit te spreken, omdat ze aan het begin een geheimhoudingsverklaring hebben ondertekend. Zaicev vertelt dat hij dat zelfs nog een keer moest doen toen hij CPL verliet.

“Ik weigerde om het te ondertekenen, maar werd gedwongen om het te doen,” zegt hij. “Nadat ik het meerdere keren had geweigerd werd ik beetgepakt en naar buiten gebracht, alsof ik een crimineel was. Ik had niet eens de kans om mijn collega’s dag te zeggen.”

Het bedrijf waarschuwt zijn werknemers ook om niet met de media te praten. VICE zag een e-mail in die in 2018 gestuurd werd naar CPL-werknemers in Dublin, waarin stond dat er een undercover-onderzoek over het bedrijf naar buiten zou komen op Channel 4. De medewerkers kregen te horen hoe ze moesten reageren als ze zouden worden benaderd met vragen. “Het zou goed zijn om als volgt te reageren: ‘De veiligheid van Facebook-gebruikers is een van onze topprioriteiten,” stond onder andere in de mail.

Volgens Zaicev heeft Facebook bij moderators aangedrongen om iedere verwijzing naar Facebook van hun LinkedIn-profielen te verwijderen, zodat journalisten ze minder snel zouden benaderen.

Facebook laat aan VICE weten dat het werknemers adviseert om het bedrijf “vanwege veiligheidsredenen” niet online te noemen. De woordvoerder verwijst naar de schietpartij bij het hoofdkantoor van YouTube in april 2018.

Hoewel Facebook erg gesloten is, hebben er tientallen voormalige en huidige moderators (onder wie Zaicev) contact opgenomen met Coleman Legal Partners in Dublin, om juridische stappen tegen het bedrijf te zetten. Dat moeten de moderators wel gescheiden van elkaar doen, omdat het Ierse juridische systeem zo in elkaar zit.

“De mensen die weg zijn bij Facebook zijn het gelukkigst,” zegt een van hen. “Hoe ongelukkiger je bent, hoe meer tijd je op Facebook doorbrengt. En wij zitten de hele dag op Facebook – je kunt je vast wel voorstellen dat dat niet zo goed voor je is.”

Dit artikel verscheen oorspronkelijk bij VICE US.

Tagged:
Facebook
toilet
moderator