Artykuł stanowi część serii Motherboard na temat sposobu moderowania treści przez Facebooka. Resztę tekstów możesz przeczytać tutaj .
We wtorek 17 lipca przedstawiciele Facebooka, Twittera i YouTube’a zeznawali przed sądem w związku ze strategiami moderowania treści na ich platformach. Jak zauważyła reporterka „New York Timesa” Sheera Frenkel, podczas przesłuchania przedstawiciele Facebooka wielokrotnie odwoływali się do „granicy”, która musi zostać przekroczona, zanim platforma zdecyduje się usunięcie określonej strony.
Videos by VICE
„Ani razu nie wyjaśniono, czym właściwie jest ta granica, ani kto ją ustala” – napisała na Twitterze Frenkel. Inne gazety i portale również o tym wspomniały: „Facebook nie może decydować o tym, kiedy strona powinna zostać zbanowana” – napisano w „Engadget”. Jednak Facebook oczywiście to robi – po prostu nikt nie wie, czym dokładnie się kieruje.
Motherboard dotarło do wewnętrznych dokumentów Facebooka określających, gdzie dla wielu rodzajów różnych treści przebiega ta granica. Informacje te zawierają szczegóły, które pozwalają zrozumieć, jak wygląda proces decyzyjny moderatorów witryny. Pojawiły się one w o tyle ciekawym momencie, że niedawno na Facebooka ponownie spłynęła fala krytyki za to, że zdecydował się nie zamknąć kontrowersyjnych stron pokroju InfoWars Alexa Jonesa, na której szerzone są najróżniejsze teorie spiskowe.
W jednym z dokumentów szkoleniowych na temat mowy nienawiści, z którymi musi się zapoznać każdy przyszły moderator, czytamy, że w przypadku stron (np. poświęconym zespołom, organizacjom, postaciom publicznym czy jakiejś działalności gospodarczej) administrator musi otrzymać pięć „ostrzeżeń” w ciągu 90 dni, aby została ona usunięta.
Jednocześnie moderatorzy Facebooka powinni również usunąć stronę, jeśli co najmniej 30 procent treści opublikowanych w przeciągu ostatnich 90 dni narusza standardy społeczności Facebooka. Jak wynika z dokumentu, zasadę „30 procent lub więcej” stosuje się również przy grupach.
Inny dokument dotyczący mowy nienawiści mówi, że profil powinien zostać usunięty, jeśli pięć lub więcej postów opublikowanych przez administratora stanowi propagandę nienawiści, przedstawia możliwego do zidentyfikowania lidera lub w inny sposób narusza zasady Facebooka. Przy czym dokumenty uzyskane przez Motherboard zostały utworzone dopiero niedawno, a jako że polityka Facebooka zmienia się dość często, nie do końca wiadomo, czy zasady te nadal obowiązują. Dla porównania YouTube niezmiennie przestrzega „zasady trzech ostrzeżeń”, chociaż należy zaznaczyć, że zestawianie dwóch różnych platform oraz ich polityki niekoniecznie jest najlepszym rozwiązaniem.
Oczywiście w przypadku przekroczenia tej granicy wiele zależy również od moderatorów, którzy identyfikują i oznaczają niezgodne z polityką Facebooka posty. Ostatnio w sieci rozgorzała ostra debata na temat tego, co właściwie kwalifikuje się jako „mowa nienawiści” i „fake news”, oraz czy strona InfoWars wciąż powinna znajdować się na Facebooku. W zeszłym tygodniu przedstawiciele Facebooka powiedzieli, że „zarówno lewicowe, jak i prawicowe strony publikują treści, które w ich mniemaniu są opiniami lub analizami, a inni nazywają je fake newsami” – wyjaśniła firma na Twitterze. „Wierzymy, że usuwanie tych stron byłoby sprzeczne z zasadą wolności słowa”.
Inny dokument skupiał się na treściach o charakterze seksualnym. Według niego moderatorzy powinni usuwać wszystkie strony i grupy, na których pojawiły się przynajmniej dwa „elementy” (takie jak opis strony, tytuł, zdjęcie lub przypięty post) zawierające link do nagich zdjęć lub – jeśli strona jest bardziej subtelna – podają metodę kontaktu albo adres. W slajdzie ponownie powtórzono zasadę 30 procent i pięciu postów, którą pojawiła się już przy treściach szerzących nienawiść.
Bądź z nami na bieżąco. Polub nasz fanpage VICE Polska na Facebooku
Jednak „przekroczenie granicy” nie zawsze oznacza to samo i wiele zależy od tego, jakiego typu treści zostały udostępnione. W mailu, który Facebook wysłał Motherboard, zaznaczono, że jeśli ktoś udostępnił materiały przedstawiające wykorzystywanie dzieci, zostanie on natychmiast zablokowany.
„Konsekwencje naruszenia naszych Standardów Społeczności różnią się w zależności od wagi przewinienia oraz historii aktywności danej osoby na platformie” – napisał w oświadczeniu rzecznik firmy. „Zawsze ostrzegamy użytkownika, że dostał pierwsze ostrzeżenie, ale jeśli nadal narusza nasze zasady, możemy wyłączyć pewne funkcje na jego profilu – chociażby możliwość publikowania postów – albo wręcz go usunąć. Możemy również powiadomić organy ścigania, jeśli uważamy, że istnieje ryzyko wyrządzenia komuś fizycznej krzywdy albo pojawiło się bezpośrednie zagrożenie dla bezpieczeństwa publicznego”
Podczas przesłuchania w poprzedni wtorek dyrektorka ds. zarządzania polityką globalną firmy, Monika Bickert, powiedziała w trakcie dyskusji na temat strony InfoWars, że „jeśli zamieściliby wystarczającą liczbę treści, które stoją w sprzeczności z naszymi zasadami, strona zostałaby usunięta. Wszystko sprowadza się do tego, jak poważne są różnego rodzaju wykroczenia”. Widać więc, że w niektórych przypadkach teorie spiskowe i szerzenie nienawiści niekoniecznie muszą naruszać zasady Facebooka – zwłaszcza kiedy stronę polubiło ponad 900 tysięcy osób.
Tekst oryginalnie ukazał się na VICE US.
Czytaj też: