FYI.

This story is over 5 years old.

aplikacije

E, sad smo najebali: Svi prave lažne porniće uz pomoć veštačke inteligencije

Zahvaljujući aplikaciji koja je laka za rukovanje, došlo je do prave eksplozije proizvodnje uverljive pornografije sa zamenjenim licima.

Ovaj članak je prvenstveno objavljen na Motherboeard.

U decembru je Motherboard otkrio člana Reddit-a po imenu deepfakes koji je na miru uživao u svom hobiju: lepljenju lica slavnih ličnosti na tela porno glumaca. Napravio je nekoliko uverljivih porno videa sa slavnim ličnostima — uključujući Gal Gadot, Mejsi Vilijams i Tejlor Svift — uz pomoć algoritama mašinskog učenja, njegovog kućnog kompjutera, javno dostupnih video snimaka i nešto malo slobodnog vremena.

Reklame

Otkako smo prvi put pisali o deepfakes, praksa pravljenja lažnih pornića uz pomoć veštačke inteligencije naprosto je eksplodirala. Sve više ljudi pravi lažne porniće sa slavnim ličnostima uz pomoć mašinskog učenja, a rezultati su postali sve ubedljiviji. Još jedan član Reddit-a napravio je aplikaciju da bi konkretno omogućio korisnicima bez tehnološkog znanja da naprave lažne porniće uz pomoć veštačke inteligencije. Svi alati neophodni da neko napravi ove video snimke su besplatni, lako dostupni i praćeni priručnikom koji čitav proces objašnjava novajlijama.

Ovo je razvoj događaja na koji smo mi i eksperti sa kojima smo razgovarali upozoravali u našem prvobitnom članku. On se, međutim, desio zastrašujućom brzinom.

Ubrzo nakon što je Motherboard objavio svoj prvi članak, deepfakes je napravio podforum na Reddit-u pod svojim imenom posvećen praksi od pre dva meseca. U tom kratkom periodu, već je stekao 15.000 pratilaca. U okviru zajednice, sama reč “deepfake” sada označava onu vrstu lažnih videa pravljenih uz pomoć neuralne mreže koju je njihov imenjak prvi razvio.

Jedan drugi korisnik, po imenu deepfakeapp, stvorio je FakeApp, aplikaciju kojom se lako rukuje i koja omogućava svakome da stvori ove video snimke sa sopstvenim podacima. Aplikacija je zasnovana na deepfakes-ovom algoritmu, ali je deepfakeapp napravio FakeApp bez pomoći originalnog deepfakes-a. Poslala sam poruku deepfakes-u, ali on nije odgovorio na zahtev da prokomentariše novonastalu popularnost svoje kreacije.

Reklame

Deepfakeapp mi je rekao u Reddit-ovoj direktnoj poruci da je pravljenjem FakeApp-a njegov cilj bio da deepfakes-ovu tehnologiju učini dostupnom ljudima bez tehničkog znanja ili programerskog iskustva.

“Mislim da je trenutna verzija aplikacije dobar početak, ali nadam se da ću je još više usavršiti u predstojećim danima i nedeljama”, rekao je on. “Na kraju želim toliko da je usavršim da će potencijalni korisnici moći prosto da odaberu video na svom kompjuteru, skinu neuralnu mrežu povezanu s određenim licem iz javno dostupne arhive i zamene video sa drugim licem jednim običnim pritiskom na dugme.”

Početkom januara, nedugo nakon što je Motherboard objavio prvi članak o deepfakes-u, nazvala sam Pitera Ekerslija, glavnog kompjuterskog naučnika Fondacije Electronic Frontier, da popričamo malo o posledicama ove tehnologije po šire društvo: “Mislim da se nalazimo na ivici da ova tehnologija postane veoma laka i široko rasprostranjena”, rekao mi je on, dodajući da je u ono vreme bilo prilično teško napraviti deepfakes. “Možete da napravite lažne video snimke uz pomoć neuralne mreže danas, ali ljudi će, ako malo bolje prouče, moći da prepoznaju da ste to uradili a neke korišćene tehnike bile su prilično napredne. To neće ostati tako više od godinu ili dve.”

Štaviše, to jedva da je ostalo tako za svega dva meseca. Prebrojali smo na desetine korisnika koji eksperimentišu sa lažnim pornićima uz pomoć veštačke inteligencije, od kojih su neki napravili neverovatno ubedljive snimke.

Reklame

Član Reddit-a UnobtrusiveBot je uz pomoć FakeApp-a postavio lice Džesike Albe na telo porno glumice Melani Rios. “Super brzo – samo učim kako da obučim svog modela. Trebalo mu je oko pet sati – pristojno za date mogućnosti”, napisao je on u komentaru.

Član Reddit-a nuttynutter6969 koristio je FakeApp da bi stavio lice Dejzi Ridli na telo jedne druge porno glumice:

Lažnjaci postavljeni u podforumu već su predstavljeni kao pravi na drugim internet stranicama; deepfake Eme Votson dok se tušira ponovo je postavio CelebJihad — porno stranica sa slavnim ličnostima koja redovno objavljuje hakovanu golotinju slavnih ličnosti — kao “nikad dosad viđen video iz moje privatne kolekcije i na njemu može da se vidi skroz gola Ema Votson kako pokazuje polne organe dok se tušira sa drugom devojkom.”

Drugi članovi Reddit-a uzeli su video naučen na osnovu javnih Instagram storija slavnih ličnosti i iskoristili ga da prebace lice na gole Snepčetove koje su postavljali amateri: “Imao sam sreće da ova amaterka radi slične luckaste plesne poteze i izraze lice kao što ponekad radi Kloi u svojim Instagram storijima”, napisao je tvorac deepfake-a glumice Kloi Benet.

Većina postova u r/deepfakes do sada su bili pornići, ali neki korisnici prave i video snimke koji pokazuju dalekosežne implikacije tehnologije koja omogućava svakome sa dovoljno sirovih snimaka na raspolaganju da ubedljivo postavi bilo koje lice na bilo koji snimak. Korisnik po imenu Z3ROCOOL22 kombinovao je snimke Hitlera sa argentinskim predsednikom Mauriciom Makrijem:

Reklame

Prema deepfakeapp-u, svako ko može da skine i pokrene FakeApp može da napravi jedan od ovih videa uz pomoć samog jednog ili dva video snimka visokog kvaliteta lica koje želi da lažira. Wiki stranica podforuma navodi da je FakeApp “desktop aplikacija razvijena u zajednici za aktiviranje deepfakes algoritma bez instaliranja Python-a, Tensorflow-a, itd.,” i da je sve što je čoveku potrebno da bi radila “dobar GPU [grafička procesorska jedinica, onakva kakva je potrebna za vrhunske 3D video igre] uz podršku CUDA [paralelna kompjuterska platforma i programerski model NVIDIA-e].” Ako korisnici nemaju odgovarajući GPU, mogu i da ga iznajme sa oblaka putem službi kao što su Google Cloud Platform. Pokretanje čitavog procesa, od izvlačenja podataka do konverzije jednog lica na drugo frejm po frejm trebalo bi da oduzme od osam do 12 sati ako se uradi kako treba. Drugi ljudi su prijavili da im je trebalo mnogo duže, ponekad uz katastrofalne rezultate.

“U čast svih onih koji su pokušali i nisu uspeli u ovome – evo ga moj sjebani video”, napisao je korisnik MrDrPresidentNotSure o svojoj ekstremno užasavajuće propaloj zameni lica:

“Kad dobijem ovo u konverziji, da li to znači da je trebalo više vremena da potrošim na učenje?”, napisao je korisnik yu78156853 o svom neuspelom FakeApp pokušaju:

Zamena lice princeze Leje iz filma Rogue One korisnika derpfake ističe se po deepfakeapp-ovom mišljenju kao posebno dobra, rekao mi je on. FakeApp verzija i holivudska scena iz pravog filma skoro su identične, makar u ovim gifovima niske rezolucije.

Reklame

“Nadam se samo da će alatke mašinskog učenja poput ove u narednih nekoliko godina postati naširoko dostupne i pružiti običnim ljudima koji nužno ne poznaju tehnologiju priliku da istražuju i stvaraju uz pomoć visokotehnološke digitalne manipulacije koja je danas uglavnom dostupna samo u domenu visokobudžetnih SFX kompanija”, rekao mi je deepfakeapp.

“Gore je originalni snimak iz Rogue One sa Keri Fišer uz pomoć neobične CGI. Filmski budžet: 200 miliona dolara”, napisao je derpfake o svojoj kreaciji. “Dole je dvadesetominutni lažnjak koji je praktično mogao da bude urađen na isti način sa vizuelno sličnom glumicom. Moj budžet: 0 dolara i neke pesme od Fleetwood Mac.”

Ova aplikacija koja se neverovatno lako koristi u kućnoj radinosti za pravljenje lažnih video snimaka — seksa i osvetničke pornografije, ali i političkih govora i šta god vam drugo padne na pamet — koja se menja i poboljšava ovim tempom moglo bi da ima dalekosežne posledice po društvo u načinu na koji konzumiramo medije. Kombinacija moćne istraživačke neuralne mreže otvorenog koda, naše sve slabije sposobnosti da razlikujemo istinu od lažnih vesti i načina na koji širimo vesti preko društvenih mreža dovešće u budućnosti do ozbiljnih posledica.

“U društvenom i kulturološkom smislu, ovo može da se zloupotrebi, ali može i da se preživi”, rekao mi je u mejlu Džej Ovens, analitičar digitalnih medija i direktor platforme za inteligenciju publike Pulsar. “Viralni video snimci i medijska pažnja posvećena slavnim ličnostima ionako već funkcionišu gotovo isključivo na planu čiste zabave — a ovo će samo postati još više seksi, podložnije mimovima, smešnije i još nerealnije.”

Reklame

Debora Džonson, profesor emeritus Primenjene etike na školi elektrotehnike i računarstva Univerziteta u Virdžiniji, rekla mi je da nema sumnje da će ova tehnologija postati toliko dobra da će biti nemoguće razlikovati zamenu lica uz pomoć veštačke inteligencije i pravu stvar.

“Mogli biste da kažete da je ono što je novo zapravo stepen do kog to može da se uradi, ili uverljivost, jer dolazimo u tačku u kojoj nećemo moći da razlikujemo šta je pravo a šta ne — ali, ako ćemo pravo, nismo to mogli ni pre”, rekla je ona. “Ono što je stvarno novo jeste činjenica da je sada dostupno svima ili će to postati… To je ono što može toliko sve da destabilizuje. Ova stvar podriva čitav koncept poverenja i pouzdanosti.”

JOŠ NA VICE.COM:

Umetnica koja loša uparivanja na Tinderu pretvara u sjajne crteže

Fotkanjem selfija sada možete da naučite istoriju umetnosti

Kako je "Komodor Amiga" napravio kompjuterskog umetnika od Endija Vorhola