Programul care depistează simbolurile naziste și de ură de pe social media

NEMESIS poate fi implementat în Facebook sau Twitter.
8.1.18
Fotografie de Rei Watanabe

În august anul trecut, un neonazist a intrat cu mașina într-o mulțime de protestatari strânși în Charlottesville, Virginia. În urma atacului au fost răniți în jur de 20 de persoane, iar Heather Heyer de 32 de ani a fost omorâtă. Ciocnirile violente din weekendul ăla i-au șocat pe americani, printre care se numără și Emily Crose, care voia să meargă și ea să protesteze împotriva neonaziștilor, însă n-a mai reușit să ajungă. Însă un prieten de-al ei a fost atacat și rănit de neonaziști.

Crose e un fost analist NSA și fost moderator Reddit care acum lucrează la un startup în securitate cibernetică. Inspirată de curajul prietenului ei și oripilată de evenimentele de la Charlottesville, Crose învață în timpul ei liber un AI cum să găsească simbolurile naziste în imaginile de pe internet, indiferent că-s pe Twitter, Reddit sau Facebook.

A vrut să se folosească de expertiza ei pentru a scoate la suprafață ideologii ca cele de la Charlottesville, d-aia a pornit proiectul ăsta pe care-l numește NEMESIS.

Crose urmărește să expună neonaziștii care folosesc mai mult sau mai puțin simboluri obscure și abstracte - sau așa-zisele fluiere pentru câini - în postările lor, cum ar fi Soarele Negru și anumite meme-uri cu broasca Pepe. Scopul lui Crose nu e doar să-i dea în vileag pe aceia care folosesc simbolurile astea în online, ci și să îndemne companiile de social media să devină mai severe în privința retoricii pline de ură din online.

„Adevăratul obiectiv e să educe oamenii”, mi-a zis Crose la telefon. „Iar ca obiectiv secundar: Mi-ar plăcea ca platformele de social media să înceapă să se gândească la felul în care pot impune niște limite pe propriile platforme, un anumit nivel de decență.”

„Nu sunt genul ăla de om care doar stă și se uită cum alte persoane adoptă o ideologie care-i periculoasă”, a adăugat ea.

NEMESIS, conform lui Crose, poate găsi simboluri care-s folosite de grupurile extremiste ca să-și transmită mesaje în public. La prima vedere, felul în care funcționează NEMESIS e destul de simplu. Se bazează pe „deducție”, adică e o reprezentare matematică a unor imagini învățate și clasificate ca simboluri naziste sau neonaziste. Sistemul ăsta are la bază machine learning ca să identifice simbolurile în natură, indiferent că apar în imagini sau clipuri.

Într-un fel, NEMESIS e simplu, conform lui Crose, pentru încă se bazează pe oameni, cel puțin la început. NEMESIS are nevoie de un om care să dea mai departe imaginile cu simboluri în sistemul de deducție și să se asigure că sunt folosite într-un context neonazist. Pentru Crose, asta-i ideea principală a întregului proiect, nu vrea ca NEMESIS să semnalizeze utilizatorii care postează svastici hinduse, de exemplu, așa că programul trebuie să înțeleagă contextul.

„E nevoie de mii de poze ca să-l fac să meargă cum trebuie”, a zis ea.

NEMESIS e pus deja în funcțiune, dar Crose nu se va opri până nu va fi perfecționat. De preferat ar fi ca platforme ca Twitter și Facebook să-l implementeze ca să filtreze și să găsească propaganda neonazistă, dar sistemul poate să funcționeze și fără companiile astea, a zis Crose.

„Doar pentru că un microfon există nu înseamnă că trebuie dat oamenilor care incită la violență și la rănirea altor persoane sau celor care vor să le fie înlăturate drepturile unor grupuri de indivizi”, mi-a zis Crose. „Twitter nu are nicio responsabilitate ca să se asigure că toată lumea are aceeași libertate de exprimare.”