Fejsbukov materijal za obuku zaposlenih o lažnim vestima sadrži lažne vesti

Ovaj članak deo je aktuelnog serijala Motherboard-a o strategijama moderacije sadržaja na Fejsbuku. Ostatak članaka možete pročitati ovde.

Od Aleksa Džonsa preko ruskih fabrika trolova do iranskih operacija vršenja uticaja, Fejsbuk se sve više suočava sa pritiscima da izađe na kraj sa svojim problemom sa dezinformacijama. Ali Fejsbuk se interno i sam primio na ‘lažne vesti’. U Fejsbukovom dokumentu do kog je došao Motherboard, ova kompanija je pogrešno pripisala jednu fotografiju skorašnjem genocidu u Mjanmaru, dok ona zapravo datira iz zemljotresa u sasvim drugoj zemlji od pre više godina.

Videos by VICE

Ova greška, do koje je došlo u dokumentu za obuku moderatora sadržaja na Fejsbuku i koja izgleda potiče od lažne vesti stare više godina, posebno je ironična, imajući u vidu da je Fejsbuk nedavno obećao da će sa svoje platforme ukloniti sve dezinformacije koje mogu dovesti do nasilja.

Na slici se nalazi na desetine budističkih monaha, od kojih neki nose maske na licima i mrežice za kosu, okruženi gomilama mrtvih, oskudno odevenih tela.

“Tela muslimana koje su masakrirali budisti”, glasi potpis ove slike. U Fejsbukovom slajdu, koji govori o sadržajima s golotinjom ili uznemirujućim prizorima, dodaje se: “Ovo je pažnje vredan izuzetak sa žrtvama nasilja u Burmi [Mjanmaru].” (Fejsbuk ponekad dopušta slike koje bi inače bile označene kao osetljiv materijal ili uklonjene ukoliko služe širem javnom interesu.)

U realnosti, ovu fotografiju slikao je fotograf Geti imidžiza Guang Nu posle zemljotresa 2010. godine u Jeieguu, u Kini, otkrio je Motherboard preko obrnute pretrage slika.

Skrinšot dezinformišuće slike uvršćene u Fejsbukov dokument za obuku. Slika: Screenshot
Originalna slika posledice zemljotresa. Slika: Getty

“Složenost (po sopstvenom izboru) Fejsbukove moderacije sadržaja znači da do uvrštavanja grešaka može doći u raznim trenucima tokom proizvodnog lanca”, rekla je u mejlu za Motherboard Sara T. Roberts, vanredna profesorka s UCLA koja proučava moderaciju komercijalnog sadržaja.

Džilijan Jork, direktorka međunarodne slobode izražavanja pri Fondaciji Elektronik Frontijer, napisala je u mejlu: “To bi mogla da bude nevina greška, a mogle bi da budu i ozbiljne predrasude. Definitivno im je potrebno više transparentnosti”, misleći na potencijalnu pristrasnost ljudi koji izrađuju ovakva uputstva za obuku.

Brojni blogovi i stranice društvenih mreža podelili su tokom godina ovu sliku tvrdeći da prikazuje masakr Muslimana u Mjanmaru. Članak iz 2012. godine indijske publikacije Hindu objasnio je da je slika postala viralna kao ‘dokaz progona Muslimana’ (Hindu je otkrio da je pravi izvor zemljotres.) Hindu je objasnio da su je u to vreme razne lokalne informativne organizacije pogrešno prenele u tom kontekstu. Motherboard je potvrdio u internet arhivama da je pakistanska informativna kuća prva postavila sliku u kontekstu nasilja nad Muslimanima u Mjanmaru. Odatle se dezinformišuća upotreba ove slike raširila po drugim publikacijama, što je dovelo do mejlova i tekstualnih poruka koje pozivaju na osvetu, napisao je Hindu.

Da se razumemo, ova konkretna greška ili dezinformacija ne umanjuje veoma surovu realnost da je vojska Mjanmara ubila na hiljade Rohingja Muslimana u ovoj zemlji, a raselila na stotine hiljada njih iz njihovih domova. U ponedeljak, Mjanmar je u zatvor strpao dvojicu novinara Rojtersa na sedam godina; njih dvojica radili su na udarnom tekstu u kom se otkriva uloga vojske u masakru. Fejsbuk je kritikovan što nije reagovao dovoljno brzo u iskorenjivanju govora mržnje na svojoj platformi u Mjanmaru, što je potencijalno dovelo do nasilja u zemlji.

Ali slika zemljotresa zaista ističe stepen rasprostranjenosti lažnih vesti i kako one mogu da se uvuku čak i u kompanije koje trenutno i same pokušavaju da reše ovaj problem. Prošlog meseca Motherboard je objavio ekstenzivno istraživanje Fejsbukove aktuelne strategije moderacije sadržaja, oslanjajući se na procurele dokumente i skoro dve desetine intervjua, u kojima se pokazalo da je kompanijin pristup sofisticiran, ali da u njemu ima značajnih rupa. Mnogi ovi problemi potiču od ogromnih razmera samog Fejsbuka.

Portparol Fejsbuka rekao je Motherboard-u u saopštenju da je “slika koja opisuje žrtve zemljotresa koji je pogodio Kinu pre više godina pogrešno iskorišćena za obuku naših kontrolora da bi pravilno obeležili sadržaje sa golotinjom. Više ne koristimo taj slajd i hvala VICE-u što nam je skrenuo pažnju na to.”