De ce Facebook n-a dat jos mai repede live-ul atacului din Noua Zeelandă

Cel puțin 49 de persoane au fost omorâte în atacul din Noua Zeelandă.
16.3.19
Facebook headquarters
Image: Jason Koebler

Articolul a apărut inițial pe Motherboard

Cel puțin 49 de persoane au fost omorâte în atacul împotriva moscheelor din orașul Christchurch, Noua Zeelandă. Atacatorul a difuzat totul pe Facebook. Conținutul a fost violent, iar Facebook a șters conturile de Facebook și Instagram ale atacatorilor, deși arhivele clipului s-au răspândit și pe alte platforme online.

Episodul arată cât de greu e să moderezi conținutul live, mai ales când un clip în aparență inofensiv poate deveni rapid violent, fără niciun avertisment. Motherboard a obținut documente interne de la Facebook prin care compania prezintă uneltele care simplifică procesul pentru zecile de mii de moderatori de conținut. Motherboard a vorbit cu angajați cu vechime în Facebook, precum și cu surse cu informații de primă mână care au zis că Live-ul a fost și câteodată încă mai e un tip de conținut dificil de controlat.

„Nu mi-am imaginat că eu o să fiu cel care verifică acel livestream din Noua Zeelandă", a declarat o sursă Facebook. Motherboard le-a oferit anonimitate unor surse din acest articol, pentru a putea discuta liber despre mecanismele și procedurile interne ale companiei.

Ca orice alt conținut Facebook, indiferent că e vorba de postări, fotografii sau videoclipuri preînregistrate, utilizatorii pot da report transmisiunilor live care conțin violență, instigare la ură, hărțuire sau un comportament care încalcă termenii și condițiile serviciului. După asta, moderatorii pot verifica și lua o decizie dacă trebuie să facă ceva în privința live-ului.

Publicitate

Conform unui document intern de pregătire a moderatorilor de conținut de la Facebook obținut de Motherboard, ei pot „amâna” un live pe Facebook, ceea ce ar presupune ca din cinci în cinci minut să verifice cum a evoluat situația. Moderatorii pot să-l ignore, să-l șteargă sau să-l trimită la o echipă specializată care să stabilească dacă se încadrează într-o anumită categorie, cum ar fi terorism. În acest caz, echipa semnalează live-ul echipei legale de la Facebook, LERT (Law Enforcement Response Team), care colaborează direct cu poliția. În situația din Christchurch, Facebook a declarat pentru Motherboard că a contactat autoritățile din Noua Zeelandă de la începutul incidentului.

Atunci când semnalează un potențial caz de terorism într-un live, moderatorii sunt instruiți să răspundă la o serie de întrebări despre conținutul problematic: ce anume indică faptul că utilizatorul comite un act de terorism? Ce anume a spus utilizatorul care denotă faptul că va urma ceva violent? Cine este amenințat? Utilizatorul prezintă arme în videoclip? Care sunt împrejurimile utilizatorului, conduce o mașină?

Vineri, prim-ministrul Jacinda Ardern din Noua Zeelandă a descris explicit atacurile armate din moscheele orașului Christchurch drept atacuri teroriste.

Într-un final, moderatorii pot „marca” live-ul cu o varietate de etichete, cum ar fi tulburător, sensibil, pornografic sau de proastă calitate, scrie în documentul obținut de Motherboard.

Publicitate

Atunci când verifică live-urile, moderatorii pot urmări partea live al materialului, precum și secțiuni difuzate anterior, iar la un clip pot lucra mai mulți moderatori, fiecare derulând până în punctul în care s-a oprit celălalt, indică documentul intern.

SEMNALE DE ALARMĂ

Pentru conținutul Facebook Live, moderatorii sunt instruiți să fie atenți la „semnalele de alarmă” care ar putea să indice că materialul prezintă violență, continuă documentul. Asta include dovezi în cazul unei tentative de suicid, în care oamenii care își iau rămas bun sau vorbesc despre cum vor să-și ia viața. Documentul mai informează moderatorii să fie atenți la „dovezi ale disperării umane”, cum ar fi, „plâns, implorat sau rugăminți”.

În ceea ce privește live-ul din Christchurch și alte atacuri teroriste, unele dintre aceste semnale de alarmă intră în categoria „dovezi de potențială violență împotriva oamenilor sau animalelor”. Mai exact, asta include „prezentarea sau zgomotele unor pistoale sau alte arme (cuțite, săbii) în orice fel de context”, scrie în document.

O a doua sursă cu informații directe despre strategia de moderare a conținutului Facebook a spus pentru Motherboard că „live-urile sunt dificile pentru că uneori încerci să monitorizezi partea live și în același timp să verifici o bucată anterioară, lucru pe care nu-l poți face cu sunet”.

Desigur, când e vorba de arme, mai ales pistoale, trecerea live-ului de la non-violent la violent se întâmpla în câteva milisecunde. În acest sens, dacă utilizatorii pot difuza cu ușurință acte de violență via Facebook Live asta nu înseamnă că platforma de social media nu încearcă să dezvolte modalități de a modera conținutul, ci mai mult scoate în evidență dificultățile cu care se confruntă rețelele sociale atunci când vine vorba de streaming live.

Publicitate

Într-o copie a videoclipului cu atacul, teroristul prezintă mai multe arme chiar de la începutului live-ului, și apar frecvent în drumul cu mașina spre moschee.

„Nu știu cum a putut live-ul ăsta să ruleze pentru 17 minute”, a spus pentru Motherboard a doua sursă cu informații interne despre strategiile de moderare a conținutului Facebook.

livestream_slide

O pagină dintr-o prezentare de la Facebook obținută de Motherboard. Motherboard a reconstruit pagina pentru a proteja anonimitatea sursei, însă limbajul a rămas la fel. Imagine: Motherboard

Deoarece Facebook Live a avut un istoric șubred la capitolul moderare, până când a învățat cum să controleze conținutul, compania a creat unelte pentru a ușura munca moderatorilor.

„Facebook Live e o opțiune care a devenit populară foarte repede, iar, din punctul de vedere al consumatorului, livra o experiență grozavă. Însă au existat mereu aspecte nesigure la care trebuia să lucrăm, cu cât apăreau violențe și regulile erau încălcate”, a spus pentru Motherboard liderul echipei de risc și intervenție de la Facebook, James Mitchell.

În același interviu, Neil Potts, directorul politicii publice Faceboo, a spus că problemele de moderare „s-au intensificat în cazul serviciilor live, Facebook Live și sinuciderilor”.

„Noi am văzut câteva videoclipuri online cu auto-vătămare și am realizat că nu aveam un proces clar pentru a reacționa la astfel de conținut, mai ales într-un volum mare, așa că acum am construit niște instrumente automatizate care să ne ajute”, a adăugat el.

Justin Osofsky, șeful operațiunilor globale, a spus în trecut pentru Motherboard: „Am făcut un efort susținut pentru a adresa această problemă și s-a îmbunătățit cu mult, prin angajarea mai multor persoane, crearea unor instrumente și prin modificarea politicilor de lucru."

Publicitate

Un instrument la care moderatorii au acces este o interfață care le oferă o imagine de ansamblu cu un stream Facebook Live, inclusiv o serie de thumbnail-uri pentru a vedea cum evoluează o transmisie, un grafic care arată nivelul de implicare al publicului în anumite momente și capacitatea de a derula clipul sau de a-l încetini, dacă vor să ajungă la o bucată în care apare conținut deranjant sau să analizeze în detaliu o anumită secțiune din conținut.

„Dacă știi că videoclipul are zece minute, iar la minutul patru și 12 secunde oamenii încep să reacționeze, ăsta e un semn că ceva s-a întâmplat acolo”, adaugă Osofsky.

„Nu mi-am imaginat că eu o să fiu cel care verifică acel livestream din Noua Zeelandă."

În cazul ăsta, ținând cont de watermark-ul din colțul filmării, atacatorul pare să fi folosit o aplicație denumită LIVE4, care transmitea filmarea de pe o cameră GoPro direct pe Facebook Live.

„Am fost șocați de știri, la fel ca restul lumii”, a spus într-un e-mail pentru Motherboard Alex Zhukov, președintele companiei LIVE4.

„Suntem dispuși să colaborăm cu poliția pentru a furniza orice informație care ar ajuta investigația. În plus, pentru a se asigura că platforma rămâne sigură și este folosită cum trebuie, „vom bloca accesul la aplicație pentru oricine care propagă violență. Din păcate, noi nu avem capacitatea tehnică de a bloca transmisiunile când au loc”, a adăugat el.

Mia Garlick de la Facebook Noua Zeelandă a spus pentru Motherboard: „gândurile noastre sunt alături de victimele și familiile lor și comunitatea afectată de acest eveniment îngrozitor. Poliția din Noua Zeelandă ne-a alertat în privința unui videoclip de pe Facebook, la scurt timp după ce livestream-ul a început și noi am blocat rapid conturile de Facebook și Instagram ale atacatorului. De asemenea, înlăturăm orice conținut care sprijină sau ridică în slăvi crima sau atacatorul. Vom continua să colaborăm direct cu Poliția din Noua Zeelandă pe parcursul investigației.”