Tech by VICE

Algoritam za prepoznavanje lica u pornićima je distopijska katastrofa

Neka osoba tvrdi da je napravila program koji detektuje lica u pornićima i upoređuje ih sa fotografijama na društvenim mrežama, a navodno je do sada identifikovao preko 100,000 lica.

pisao Samantha Cole
05 Jun 2019, 8:24am

Fotografije via Pornhub / autor kolaža Samanta Kol

Na kineskoj društvenoj mreži Weibo neko je objavio tvrdnje da je koristio algoritam za prepoznavanje lica kako bi lica iz snimaka sa platforma za odrasle poput Pornhub-a uporedio sa fotografijama žena na društvenim mrežama.

U ponedeljak u objavi na mreži Weibo, jedan korisnik, koji kaže da se nalazi u Nemačkoj, tvrdi da je uspeo “uspešno da identifikuje više od sto hiljada mladih dama” u industriji za odrasle “širom sveta”.

Da budemo jasni, ovaj korisnik nije objavio nikakav dokaz da je zapravo bio u stanju da izvede tako nešto, a nije objavio ni bilo kakav kod, bazu podataka, ili bilo šta drugo osim prazne GitLab stranice kako bi potvrdio da su ovi navodi istiniti. Kada ga je Motherboard kontaktirao preko Weibo četa, on je rekao da će objaviti “šemu baze podataka” i “tehničke detalje” sledeće nedelje, i nije komentarisao ništa više.

Ipak, njegove objave postale su viralne i u Kini preko mreže Weibo, ali i u SAD-u preko Tvitera, nakon što je doktorant političkih nauka na Stenfordu tvitovao ove navode sa prevodom, koji je Motherboard nezavisno potvrdio. Ovo je dovelo do toga da aktivisti i akademici započnu raspravu o potencijalnim implikacijama ove tehnologije.

Sudeći prema objavama na mreži Weibo, ovaj korisnik i neki njegovi prijatelji koji su vešti u programiranju koristili su algoritme za prepoznavanje lica na porno sadržaju koristeći fotografije objavljene na socijalnim platformama. Njegovi razlozi za pravljenje ovog programa, kako je napisao, bili su “kako bi se obezbedilo pravo na znanje za obe strane u braku.” Nakon reakcija javnosti, kasnije je tvrdio da je njegova namera bila da omogući ženama, sa ili bez verenika, da provere da li su objavljene na nekom porno sajtu, kako bi eventualno mogle da pošalju zahtev na osnovu autorskog prava da se taj sadržaj ukloni.

“Ovo je užasavajući i naizgled savršen primer za to kako ovakvi sistemi globalno omogućavaju dominaciju muškaraca”, objavila je na Tviteru u utorak Soraja Kemali, autorka knjige Bes postaje ona. “Nadzor, impersonacija, iznuđivanje i pogrešne informacije mogu se desiti ženama, a onda i procureti u javnu sferu, gde, jednom kada su time pogođeni i muškarci, počinje da dobija na značaju.”

Bilo da su navodi ovog Weibo korisnika pouzdani ili ne nije toliko važno, zato što su eksperti za studije feminizma i mašinskog učenja ovaj projekat označili kao algoritamski-usmereno zlostavljanje. Postojanje programa ove vrste je i moguće i zastrašujuće, a započelo je raspravu o tome da li bi ovakav program trebalo smatrati etičkim, pa čak i o legalnoj odgovornosti za upotrebu veštačke inteligencije.

Baš kao što smo mogli da vidimo i kada se radi o deepfake tehnici koja koristi veštačku inteligenciju kako bi lica poznatih žena ubacili na tela porno izvođača, korišćenje mašinskog učenja kako bi se kontrolisala i ucenila telesna autonomija žena ukazuje na duboko ukorenjenu mizoginiju. U pitanju je pretnja koja nije počela sa deepfake tehnikom, ali je njenim pojavljivanjem ušla u javnu sferu - iako su u godinama koje su usledile žene izostavljene iz mejnstrim narativa koji se fokusirao na potencijalnu upotrebu ove tehnologije kako bi se kreirale lažne informacije.

Deniel Sitran, profesorka prava na Univerzitetu u Merilendu koja je proučavala posledice deepfake tehnike, takođe je tvitovala o ovoj novoj tvrdnji objavljenoj na mreži Weibo. “Ovo je bolno loša ideja - nadzor i kontrola ženskih tela je gora nego ikada”, napisala je ona.

Ono što on tvrdi da je učinio je moguće u teoriji ukoliko neko poseduje pristojno znanje o mašinskom učenju i programiranju, i ukoliko ima dovoljno vremena i dobar računar, iako je u pitanju ogroman trud, a ne postoji garancija uspešnosti i kvaliteta.

Sposobnost da se stvori baza podataka lica kao što je ova, i da se prepoznavanje lica upotrebi kako bi se na metu stavile žene koje se u njoj pojavljuju, postojala je u okviru tehnološkog dosega za komercijalnu upotrebu već neko vreme.

U toku 2017, Pornhub je ponosno objavio nove alatke za prepoznavanje lica za koje su tvrdili da će olakšati korisnicima da pronađu svoje omiljene zvezde - a, usput, u teoriji omogućiti zlostavljačima i uznemirivačima lakši put do svojih meta. Kako je napisano u tom periodu:

Čak i ako bi Pornhub koristio ovu tehnologiju na etički način, njeno postojanje bilo bi zabrinjavajuće samo po sebi. Takva tehnologija verovatno ne bi dugo ostala u njihovom vlasništvu, a uzevši u obzir i činjenicu da neki ljudi na internetu imaju naviku da identifikuju amatere ili nepoznate modele, ovakva tehnologija daleko bi olakšala ovake napore.

2018, onlajn trolovi započeli su sa sakupljanjem baze podataka seksualnih radnika kako bi im pretili ili ih isključili. Ovakva zlostavljačka kampanja imala je posledice u stvarnom životu, kada su neki seksualni radnici završili sa ugašenim platežnim nalozima ili nalozima na društvenim mrežama.

Ono što ovaj programer sa mreže Weibo tvrdi da je napravio je kombinacija ove dve ideje: mizoginistički pokušaj nasilja kako bi se kontrolisale žene. Bilo da je stvarno ili ne, ovo prikazuje mračan potencijal koji imaju tehnologije mašinskog učenja - kao i koliko toksično društvo može da bude.

Džordan Pirson je doprineo sastavljanju ove priče.

Ovaj članak je prvobitno objavljen na VICE US.