Reklame
fenomeni

Pojavili su se fejk pornići koje pravi veštačka inteligencija

Neko je upotrebio algoritam da zalepi lice zvezde „Čudesne žene“ Gal Gardo na pornić, i implikacije su zastrašujuće.

pisao Samantha Cole
13 Decembar 2017, 1:34pm

Ovaj tekst je prvobitno objavljen na MOTHERBOARD

Na internetu postoji video snimak Gal Gardo kako spava sa svojim polubratom. Ali to nije pravo telo Gardoove, a i jedva da je njeno lice. U pitanju je aproksimacija, zamenjeno lice koje treba da izgleda kao da ona učestvuje u postojećem porniću na temu incesta.

Video je stvoren uz pomoć algoritma mašine koja uči, uz korišćenje lako dostupnog materijala i otvorenog koda, koje može da sastavi svako ko je verziran u radu sa učećim algoritmima.

Insert iz celog video snimka, na SendVids, pokazuje lice Gal Gado na telu porno zvezde.

Svako ko malo bolje pogleda, neće biti prevaren. Ponekad se lice ne pomera kako treba, i uočljivi su brojni efeki, ali ako se samo baci pogled, deluje uverljivo. To je posebno zapanjujuće, kada je reč o tome da je navodno u pitanju rad samo jedne osobe – Reditora koji sebe naziva ’deepfakes’ – a ne rad nekog velikog studija za specijalne efekte, koji su jedini u mogućnosti da rekreiraju mladu princezu Leu u Odmetniku 1 uz pomoć CGI-a. Umesto toga, deepfakes koristi alate za učenje mašina koji su otvoreno dostupni, kao što je TensorFlow, koji Gugl nudi besplatno istraživačima, diplomcima, i svakome koga zanima učenje mašina.

Kao i Adobov alat koji može da napravi da bilo ko kaže bilo šta, i algoritam Face2Face, koji zameni lica na snimljenom videu u realnom vremenu, ovaj novi tip fejk pornića pokazuje da smo na rubu toga da živimo u svetu gde je trivijalno lako isfabrikovati uverljiv video snimak na kome ljudi rade ili govore stvari koje nikada nisu radili ili govorili. Pa čak i da upražnjavaju seks.

Do sada, deepfakes je na Reditu postavio hardkor porno video snimke sa licima Skarlet Johanson, Meji Vilijams, Tejlor Svift, Obri Plaze i Gal Gado. Obratila sam se menadžerskim kompanijama i/ili publicistima koji predstavljaju svaku od ovih glumica i obavestila ih o lažnim snimcima, i pisaću o tome ako mi odgovore.

Fejk selebriti pornići, u kojima se slike fotošopiraju da bi zvezde izgledale kao da poziraju gole, su kategorija pornića koja odavno postoji i ima strasne zaljubljenike. Ljudi koji daju komentare i glasaju na sabreditu na kome deepfakes postavlja su veliki obožavatelji njegovog rada. Ovo je najnoviji napredak u tom žanru.

„To više nije nuklearna fizika.“

Prema deepfakesu, - koji je odbio da oda svoj identitet, da bi izbegao lupu javnosti – ovaj softver je baziran na višestrukim otvorenim datotekama, kao što su Keras, sa podrškom TensorFlow-a. Deepfakes kaže da lica poznatih prikuplja uz pomoć pretrage slike na Guglu, arhiva fotografija, i videa na Jutjubu. Duboko učenje se sastoji od mreža međusobno povezanih račvi koje autonomno obavljaju proračune unesenih podataka. U ovom slučaju, on je obučio algoritam o pornićima i licu Gal Gado. Nakon dovoljno ove „obuke“, račve se same uklope tako da obave određeni zadatak, na primer, da ubedljivo manipulišu video snimkom.

Istraživač veštačke inteligencije Aleks Čempandard mi je u mejlu napisao da pristojna korisnička grafička karta može za par sati da isprocesira ove efekte, ali bi i CPU to uradio dovoljno dobro, smo sporije, za par dana.

„To više nije nuklearna fizika“, kaže Čempandard.

Lakoća sa kojom bi neko ovo mogao da uradi je zastrašujuća. Tehnički izazovi na stranu, sve što je nekome potrebno je dovoljan broj slika vašeg lica, a mnogi od nas već stvaraju ogromne datoteke naših lica: između 2015. i 2016, ljudi su preko Gugl Fotos aploudovali više od 24 milijarde selfija.

Nije teško zamisliti nekog amaterskog programera koji uz pomoć sopstvenog agoritma pravi snimak seksa nekoga koga želi da uznemirava.

Deepfake mi je rekao da nije profesionalni istraživač, već samo programer koga zanimaju mašine koje uče.

„Samo sam otkrio pametan način da zamenim lica“, kaže on o svom algoritmu. „Pored stotina slika lica, lako mogu da generišem milione iskrivljenih slika i da povežem mrežu“, kaže on. „Posle toga, ako u mrežu ubacim sliku lica nekog drugog, mreža će pomisliti da je u pitanju samo još jedna iskrivljena slika i pokušaće da učini da izgleda kao lice na kojoj se obučavala“.

Deepfakes je u komentarima na Reditu pomenuo da koristi algoritam sličan onome koji su razvili istraživači Nvidie, koji koristi duboko učenje da bi, na primer, od neke letnje scene smesta napravio zimsku. Istraživači Nvidie koji su razvili ovaj algoritam odbili su da prokomentarišu ovu moguću njegovu primenu.

Kod skoro svih primera koje je deepfakes postavio, rezultati nisu savršeni. U videu sa Gado, preko njenog lica se povremeno pojavi kvadrat kroz koju proviri originalno lice, i njena usta nisu baš sinhronizovana sa rečima koje glumica izgovara – ali ako malo zažmurite i na trenutak suspendujete veru, to bi mogla da bude i Gado; drugi videi koje je deepfakes napravio su još ubedljiviji.

Porno glumica Grejs Evanđelina mi je preko direktnih poruka na Tviteru rekla da su porno zvezde navikle da se njihovi radovi šire na besplatnim i tjub sajtovima kao što je SendVid, na koji je fejk video Gal Gado postavljen, bez njihove dozvole. Ali ona kaže da je ovo drugačije. Nikada nije videla ništa slično.

„Jedna važna stvar koje uvek mora da postoji je saglasnost“, kaže Evanđelina. „Saglasnost, i u privatnom životu, i na filmu. Stvaranje lažnih scena seksa poznatih ličnosti lišava ih saglasnosti. To je pogrešno“.

Čak i za ljude čija egzistencija zavisi o skidanja pred kamerama, ugrožavanje ličnih granica je zabrinjavajuće. Pokazala sam snimak sa Gardo Aliji Dženin, bivšoj porno glumici koja je 15 godina radila u industriji seksa. „Ovo je stvarno uznemiravajuće“, kaže mi ona preko teleona. „To na neki način pokazuje kako neki muškarci u suštini na žene gledaju samo kao na objekte kojima mogu da manipulišu i nateraju ih da učine bilo šta... ovo pokazuje potpuno odsustvo poštovanja prema porno glumcima u datom filmu, kao i prema samoj glumici“.

Pitala sam deepfakesa da li je razmišljao o etičkim implikacijama ove tehnologije. Da li su mu dok je razvijao ovaj agoritam na pamet padali saglasnost, pornići iz osvete i ucena?


„Svaka tehnologija može da se koristi iz loših motiva, i to je nemoguće sprečiti“, kaže on, povezujući to sa istom tehnologijom koja je posmrtno rekreirala Pola Vokera u filmu Paklene ulice 7. „Osnovna razlika je u tome koliko je sad lako da to svako radi. Ne mislim da je loše što prosečniji ljudi sada mogu da se uključe u proces učenja mašina“.

Moralne implikacije su „ogromne“, kaže Čempandard. Maliciozna upotreba tehnologije često može da bude izbegnuta, ali ne i sprečena.

„Moramo da imamo veoma glasnu i javnu raspravu“, kaže on. „Svi moraju d znaju koliko je lako lažirati slike ili video snimke, do te mere da za par meseci više nećemo biti u stanju da razlikujemo falsifikate. Naravno, ovo je moguće već duže vremena, ali je bilo potrebno mnogo više resursa i stručnjaka za vizuelne efekte da bi se to izvelo. Sada to može da napravi jedan jedini programer, sa novijim kompjuterskim hardverom“.

Čempandard kaže da istraživači mogu da počnu da razvijaju tehnologiju za detektovanje lažnih videa i pomognu da se odredi šta je falsifikat, a šta ne, a internet politika može da pomogne u unapređenju regulisanja onoga što se dešava kod ovakve vrste falsifikata i uznemiravanja do kojeg može da dođe.
„Na neki čudan način, ovo je dobra stvar“, kaže Čempandard. „Moramo da se fukusiramo na transformaciju društva, da bi smo bili u stanju da se uhvatimo sa ovime u koštac“.

Ispravka: članak je ispravljen da bi bilo razjašnjeno da je algoritam deeepfakesa sličan rezultatima istraživanja Nvidie, ali nema dokaza da je u pitanju primena njihovog rada.

Još na VICE:

Kakva vas pornografija najbrže radi?

Ima li hardkor pornografija kulturnu vrednost

Osvetnička pornografija u Srbiji i kako protiv nje

Tagged:
Porno
Motherboard
vice
video
seks
Tehnologija
Slike
veštačka inteligencija