FYI.

This story is over 5 years old.

Instagram

De ce îți cenzurează Instagram chestiile dubioase pe care le pui în Stories

Documentele astea interne îți arată cum moderatorii de la Instagram aplică cenzura și în Stories.
Instagram
Imagine: Shutterstock

Articolul a apărut inițial pe Motherboard

Documentele astea îți arată cum Instagram monitorizează conținutul din Stories, opțiunea care permite utilizatorilor să publice videoclipuri scurte și imagini statice care în general sunt valide 24 de ore. Deoarece postările au mai multe substraturi, moderarea conținutului poate fi destul de dificilă, scrie în documente.

Mai exact, documentele prezintă cum moderatorii Instagram trebuie să se confrunte cu conținutul unui Story. Deși o fotografie individuală sau un video nu încalcă termenii și condițiile rețelei sociale, asta nu e valabil și dacă contextul este asociat cu restul conținutului utilizatorului.

Publicitate

„Stories pot fi abuzate prin postarea unui conținut multiplu non-ofensiv, care portretizează o narativă ofensivă. Revizuirea acestui conținut individual ne împiedică din a aplica cu acuratețe termenii și condițiile împotriva conținutului”, scrie într-un document intern folosit pentru a instrui moderatorii, datat octombrie 2018.

Instagram_slide

O secțiune din documentele Instagram. Imagine: Motherboard

Utilizatorii își pot arhiva postările de pe Stories, păstrându-le permanent pe profil, însă majoritatea sunt valabile doar 24 de ore. Această efemeritate ar putea îngreuna problema moderării acestui conținut.

Documentele prezintă câteva exemple de conținut care încalcă termenii Instagram. Asta include traficul de droguri, etalarea de arme și schimbul sau comercializarea imaginilor sexuale cu minori. Un alt document Instagram, obținut anterior de Motherboard și publicat parțial în mai, a arătat cum Instagram descrie aceste tipuri de conținut drept „incendii de PR”.

Activiștii Statului Islamic s-au folosit în trecut de Instagram Stories pentru a distribui propaganda organizației. Unii utilizatori etichetează alți oameni în stories cu scopul de a-i hărțui.

Deoarece sunt deseori postate ca o serie de poze și clipuri individuale, cu scopul de a fi vizualizate una după alta, e posibil ca o singură postare să nu ofere tot contextul necesar pentru a stabili dacă încalcă sau nu regulile. Documentele arată că moderatorii trebuie să identifice intenția din spatele conținutului prin vizualizarea într-un context a postării raportate.

Publicitate

„Aplică contextul obținut din fiecare conținut în toată galeria de fotografii ș clipuri pentru a stabili intenția”, se arată într-un alt document.

Imaginile exemplifică trei postări consecutive în opțiunea Stories. Primul conținut prezintă interiorul unei mașini, cu textul „HMU” („hit me up”). Celelalte două prezintă muguri de marijuana. Individual, nu încalcă regulile, dar împreună e clar că utilizatorul vinde canabis, lucru nepermis pe Instagram.

Ținând cont de asta, documentul Instagram e despre o metodă „holistică” de a revizui Stories. Moderatorilor li se cere să urmărească până la două postări adiacente de conținut înainte și după postul raportat, pentru a determina dacă intenția încalcă termenii rețelei sociale.

Instagram_slide_2

O secțiune din documentele Instagram. Imagine: Motherboard

Instagram nu a răspuns la cererea de comentariu.

Cu cât companiile de social media au crescut și problema moderării conținutului s-a agravat, unele au mers în direcția dezvoltării sistemelor automatizate pentru detectarea sau raportarea conținutului individual. De exemplu, Facebook utilizează machine learning pentru a detecta în videoclipuri conținut cu potențial terorist. Două surse care cunosc strategia de moderare au spus că Facebook și Instagram moderează conținutul aproape în același fel. (Facebook deține Instagram). Motherboard a păstrat anonimitatea surselor, deoarece nu au fost autorizate să vorbească cu presa.

Însă contextul e un aspect problematic pentru aceste sisteme, așa cum au explicat și executivii Facebook pentru Motherboard, în interviurile de la sediul companiei. Aceste documente evidențiază că în continuare e nevoie de moderatori umani pentru rețelele sociale. Facebook a declarat anterior că are aproximativ 7 500 de moderatori.

„Pot spune că nu există suficienți oameni care pot face munca asta, deoarece majoritatea nu rezistă mai mult de șase luni. Majoritatea oamenilor nu pot”, a spus una dintre surse.

Chiar și așa, nu întotdeauna se descoperă contextul. „Acești moderatori par să uite contextul. Ei vizualizează lucrurile doar ca atare.”