FYI.

This story is over 5 years old.

Internet

Cum ar putea YouTube să scape de conspiraționiști cu ajutorul Wikipedia

Directorul YouTube plănuiește să folosească Wikipedia ca să clarifice faptele.

Articolul a apărut inițial pe Motherboard.

YouTube are o problemă cu teoriile conspirative, iar platforma încearcă să rezolve asta prin externalizarea problemelor către Wikipedia.

Directorul YouTube, Susan Wojcicki, a anunțat că platforma va începe să prezinte linkuri către articole Wikipedia la videoclipurile cu teorii ale conspirației, într-un efort de a le demonta.

Oamenii de la Fundația Wikimedia, organizația non-profit care operează Wikipedia, sunt nelămuriți în ceea ce privește cum mai exact va funcționa măsura asta, și ce se va întâmpla dacă trolii de pe YouTube vor ataca articolele Wikipedia pentru a fraieri acest sistem nou. Asta e în parte din cauză că YouTube nu a anunțat Fundația Wikimedia de această acțiune.

Publicitate

„YouTube externalizează responsabilitatea adevărului.”

E îngrijorător că YouTube, compania care generează miliarde de dolari pe an, a decis să externalizeze una dintre cele mai mari probleme ale sale, către o organizație non-profit. Însă cercetările arată că Wikipedia chiar are o metodă bună de a combate bazaconiile și teorii ale conspirației. Nu e o soluție, dar dacă este implementată cum trebuie, Wikipedia ar putea măcar să le ofere oamenilor care vizualizează videoclipuri despre Pământul Plat cu linkuri către informații științifice mai bune.

YouTube nici măcar nu a anunțat Wikipedia de planurile sale

„Noi suntem întotdeauna bucuroși să vedem că oamenii, companiile și organizațiile recunosc valoarea Wikipedia ca un depozit de cunoștințe gratuite", a declarat Fundația Wikimedia într-o declarație via email pentru Motherboard. „În cazul ăsta, nici Wikipedia, nici Fundația Wikimedia fac parte dintr-un parteneriat oficial cu YouTube. Nu am primit o înștiințare în prealabil acestui anunț."

Katherine Maher, director executiv al Fundației Wikimedia, a declarat pe Twitter după anunțul YouTube că inițiativa este independentă de Wikimedia, ceea ce înseamnă că YouTube nu a consultat sau a informat organizația înainte de a anunța planul la SXSW.

„Noi întotdeauna explorăm noi modalități de a lupta cu dezinformarea de pe YouTube", a declarat pentru Motherboard un purtător de cuvânt al companiei. „La SXSW, am anunțat planul de a afișa indicații suplimentare, inclusiv o casetă de text care să lege sursele terților în jurul unor evenimente acceptate pe scară largă, cum ar fi aterizarea lunii. Aceste opțiuni vor fi lansate în lunile următoare, iar momentan, nu avem informații suplimentare de împărtășit cu publicul."

Publicitate

Editor Wikipedia de multă vreme și membru al comunității, Liam Wyatt, primul „Wikipedian Rezident" de la Muzeul Britanic și fondator al mișcării GLAM-Wiki, mi-a spus că, prima oară când a auzit de acest anunț a fost de la difuzarea Wired a conferinței.

„YouTube externalizează responsabilitatea adevărului”, mi-a spus Wyatt într-un interviu telefonic. „Jobul lor este să nu-și asume responsabilitatea adevărului, nu misiunea. Dar își abrogă responsabilitatea față de societate spunând că există o organizație care răspundă pentru asta și că nu trebuie să ne ocupăm noi."

Wyatt a spus că este minunat că YouTube recunoaște contribuțiile Wikimedia la schimbul de informații, fiind un efort voluntar, dar e cam „ironic" că o companie în valoare de mai multe miliarde de dolari indică modelul Wikipedia al comunității pe bază de donații ca cel mai bun mijloc de a face față știrilor false și conspirațiilor.

În timp ce YouTube a făcut acest anunț pe baza masei de editori voluntari și membrii comunității Wikipedia, merită să ne întrebăm dacă Wikipedia este pregătită pentru ceea ce ar putea urma: troli și teoreticienii conspirativi care ar putea inunda platforma cu scopul de a influența ce se afișează pe YouTube.

Wikipedia se descurcă mai bine decât majoritatea platformele, în lupta împotriva dezinformării

Wikipedia se pricepe să prindă contribuabilii necorespunzători de pe site. Într-un studiu din 2016 întocmit de Universitatea din Maryland și Stanford, cercetătorii au explorat cum știrile false și dezinformarea și „bazaconiile” (un termen științific în cazul ăsta) ajung pe Wikipedia și cum se ocupă platforma de editările rău-voitoare. Ei au descoperit că 99% din farsele încercate sunt detectate imediat, în câteva minute după de apar pe site. O fracțiune mică de informații greșite se mențin mai mult timp, dar doar cele care supraviețuiesc raziei inițiale a editorilor „atrag suficientă atenție și un număr mare de vizualizări”, conform studiului.

„Suntem atât de puțini și pe web e atât de mult rahat.”

Publicitate

L-am întrebat pe Bob West, unul dintre cercetătorii din cadrul studiului și acum profesor-asistent la Institutul Federal de Tehnologie din Elveția, ce crede despre inițiativa de la YouTube. „Este un pas mare, ar trebui să fie lăudați pentru asta", a spus el. „Nu o să remedieze complet problema.”

West mi-a spus că există troli stupizi și unii inteligenți: cei mai puțin inteligenți vor crea un cont nou și vor crea imediat un articol fals. Unul mai competent ar putea să dea târcoale pe Wikipedia o vreme, editând virgule și mici erori în alte articole, înainte de a încerca să introducă un articol fals. Cei mai deștepți vor alimenta alte articole cu sugestii pentru știrea falsă ce va urma și apoi, mult mai târziu, vor da lovitura mare, odată ce au „periat" sistemul să fie de acord cu noua lor campanie de dezinformare.

West crede că implicarea mai multor oameni, esențial să desemnezi pe oricine de pe internet să verifice informații, ar putea opri știrile false.

„Suntem atât de puțini și pe web e atât de mult rahat”, a spus el. „Nu vrei ca algoritmii să devină auto-referențiali… Dacă scoți complet omul din ecuație, algoritmul își reproduce propriile acțiuni și se sabotează singur.”

Wyatt e încrezător că orice val de troli din partea YouTube nu vor distruge site-ul sau vreo pagină anume. Dacă ar fi fost un subiect controversat înainte, atunci oamenii deja ar fi monitorizat și editat restricțiile vandalismului aleatoriu", a spus el prin chat. „Dacă YouTube ar trimite dintr-o dată o mulțime de oameni conspirativi către un articol obscur, asta ar fi o problemă temporară pentru noi. Însă dacă trimit oameni către o varietate de articole bine stabilite și bine monitorizate, atunci nici o problemă."