Denne artikel er oprindeligt udgivet af Broadly USA
Jeg stødte første gang på Reddit-brugeren ”Deepfakes” i et forum for kendis-dobbeltgænger-porno, hvor han i ro og mag dyrkede sin hobby: At skabe videoer, som underminerer sandheden som koncept. Et fænomen, som senere skulle blive opkaldt efter ham.
Videos by VICE
For de uindviede, så er deepfakes videoer lavet ved hjælp af kunstig intelligens, hvor én persons ansigt sættes på en anden persons krop. Det begyndte som en slags Frankenporno – mashups af kendte kvinder og pornoskuespillere – og endte som temmelig realistiske videoer af falske sexscener mellem uvidende aktører.
Nå, men der var han så, “Deepfakes”, midt i det virtuelle vilde vesten, hvor han producerede det ene manipulerede billede efter det andet af kvinder og postede dem på diverse pornofora. Og de så utroligt virkelige ud.
“Deepfakes” offentliggjorde første gang sin kreation på Reddit sent på året i 2017, og i december lykkedes det mig, sammen med mine redaktører på Motherboard, VICEs side for videnskab og teknologi, at spore brugeren og lave den første dybdegående artikel om emnet. Midt i januar 2018 havde brugere i forskellige deepfakes-orienterede underfora på Reddit konstrueret en brugervenlig app kaldet FakeApp, der automatisk kørte algoritmen. Pludselig kunne enhver fan af fake-porno generere sine egne falske sexvideoer med forskellige grader af succes.
I takt med at processen blev lettere og lettere, var der også flere medier, der begyndte at interessere sig for fænomenet, og snart herskede der vild panik i den offentlige debat, da medieteoretikere begyndte at diskutere mulighederne for teknologien i forhold til politik og nyheder, der nu kunne manipuleres og forfalskes. Men det hele begyndte med sex – og en lang tradition for giftig mandekultur og underminering af princippet om samtykke, der nu var sat på en spids.
Brugeren “Deepfakes” og jeg skrev frem og tilbage via Reddits interne beskedsystem, men kun kortvarigt. På et tidspunkt havde hans skabning vokset sig for stor til, at han selv kunne følge med. ”Jeg er bare en programmør med interesse i machine learning,” skrev han først. (Maskinlæring er, ifølge Wikipedia, et underområde indenfor datalogi, som sætter computere i stand til at lære, uden at man eksplicit har programmeret, hvordan læringen foregår, red.) ”Jeg er ikke professionel forsker.” På det tidspunkt i december var hans arbejde hovedsageligt populært på et underfora på Reddit, som var dedikeret til billeder af kendte kvinders ansigter photoshoppet på stillbilleder af pornoskuespillere – en aktivitet, der er lige så gammel som billedredigeringssoftwaren selv.
Men den ligefremme algoritme fik nu de dårlige photoshoppede billeder til at ligne lort. “Deepfakes” fandt ud af, at han kunne bruge eksisterende algoritmer til at puste liv i billederne. Det eneste, man behøvede at gøre, var at fodre algoritmen med hundredvis af billeder af en persons ansigt, kombinerer den med en videooptagelse af en anden person og lade den kunstige intelligens matche videoen og billedmaterialet. Det var en teknik, der tog konceptet med DIY-kink og skruede dystopi-knappen op på maks. Det værste var, at enhver kunne gøre det.
Enhver kunne gøre det, men det var ikke enhver, som gjorde det. Det er ikke alle, som har tålmodigheden eller en computer, der kan processere den omfattende behandling af grafik for at skabe en drømmekvinde ud af en algoritme og et stort datasæt, men det var de elementer – tålmodighed og en kraftig computer – der gjorde enhver i stand til at praktisere kunsten. En masse open-source forskning om kunstig intelligens (suppleret af et gamer- og fotoredigerings-community online, som var mere end villige til at hjælpe nybegyndere godt på vej) demokratiserede processen, som ellers kun havde været mulig ved hjælp af dyrt Hollywood-isenkram.
Henover de uger, hvor jeg arbejdede på historien, så jeg timevis af deepfake-videoer uploadet til forskellige fora hovedsageligt i form af GIFs på et par sekunder eller korte klip uden lyd. Når algoritmen kørte optimalt – med nok data og tid – er det endelige produkt ganske troværdigt, især når kvaliteten reduceres til lav opløsning. Men når det gik galt, var resultatet – som folk postede, så andre kunne lære af deres fejl – mildest talt gruopvækkende. Slørede videoer af forvrængede ansigter med forpinte udtryk plus et lag kunstig intelligens-genereret vanvid; kvindelemmer, der bliver mast sammen med andre kvindelemmer og gennempulet af kropsløse pikke, ansigter, som forvandler sig til mareridtsagtige masker, bag hvilke der gemmer sig en monstrøs algoritme, som forsøger at kravle ud gennem skærmen.
I forbindelse med mit arbejde ser jeg en del porno. Jeg taler med og læser om sexarbejdere og deres fag de fleste af ugens dage. Der er kort sagt ikke noget, der hedder NSFW for mig. Men deepfakes var noget helt andet. Ingen af kvinderne i filmene – hverken pornoskuespillerne eller filmstjernerne – havde givet samtykke til at optræde på den måde på nettet. Det var forstyrrende, fordi det kunne ske for enhver, og bagmændene skænker det ikke en tanke.
På fora bliver alt – fra de succesfulde videoer til de mareridtsagtige fiaskoer til kildemateriale – suppleret med nonchalante kommentarspor, hvor der tilbydes konstruktiv kritik og gode råd til forbedring af videoerne. Det er sådan brugerne diskuterer andre menneskers ansigter – som om det er datasæt og foder til en algoritme.
Et af de sidste spørgsmål, jeg stillede “Deepfakes”, inden hans skabning blev berømt, og han lukkede for al kommunikation – gik på, hvorvidt han nogensinde overvejer, at hans hobby går ud over andre mennesker. Nej, lød svaret. Alle former for teknologi kan bruges til at gøre andre ondt, skrev han. ”Jeg synes ikke, det er skidt, at flere almindelige mennesker eksperimenterer med machine learning.”
Men kvinderne, som det går ud over, har en anden holdning. Da jeg viste en af de tidlige deepfake-videoer for en pornoskuespiller, talte hun om rettighederne, som folk, der arbejder hårdt for at tjene penge i pornobranchen, bliver snydt for, når deres kroppe bruges i deepfake-videoer. En anden kvinde, som er kendt på YouTube, kunne næsten ikke holde tårerne tilbage, da jeg spurgte hende om, hvordan hun havde erfaret, at hendes ansigt optrådte i en deepfake-video. Hendes seere på YouTube, der alle er unge teenagere, havde fundet pornolignende videoer med hende og ville vide, om det virkelig var hende, der optrådte i dem.
For størstedelen af deepfakers er kvinderne bare summen af deres lemmer og kønsdele.
Blandt de store medier over hele verden skred fokus hurtigt fra sex og samtykke til ”fake news”. Dækningen gik fra ”OMG, nøgenbilleder” til ”OMG, hvad hvis nogen lavede en falsk video af Trump, der fyrer atommissiler af”, og dermed var hele ophavet til problemet glemt.
For at forstå det ideologiske grundlag for deepfake-videoer, er man nødt til at forstå, hvordan pornoen har udviklet sig. I Playboy og Hustlers storhedstid i 60’erne og 70’erne dukkede porno hovedsageligt op i mandsdominerede miljøer som små pornoforretninger og -biografer, steder, hvor kvinder sjældent færdedes på grund af sociale normer.
Internettet har ændret måden, hvorpå folk tilgår porno i dag, men industrien er fortsat i overvejende grad målrettet et mandligt publikum. Mænd henter ikke pornofilm i den lokale videoudlejning længere, men de færdes fortsat i små mandsdominerede miljøer på nettet, hvor kvinder og minoriteter fortsat er ildesete. Reddit er et af de miljøer – der findes underfora, som har eksisteret i årevis, der er dedikeret til ”dobbeltgænger”-fetich og billeder af kvinder taget i smug. Discord, en chatplatform for gamere, der også bruges til at diskriminere mod kvinder, er et andet eksempel. På de private kanaler er vi kommet i besiddelse af store mængder billeder af kvinder. Så er der de gennemført giftige fora som 4chan og 8chan, hvor mænd udveksler eksplicitte billeder af kvinder, og private underfora er fyldt med hævnporno.
I disse onlinerum er der ingen, som stiller spørgsmålstegn ved opfattelsen af kvindekroppen som værende underlagt mandens blik. Brugerne opmuntrer hinanden og opfører sig som verdensherskere, der ikke står til regnskab for nogen. Det er den samme logik og mentalitet, der har ført til pickup-artists og incel-bevægelsen, og det er dér deepfakes har sit ophav – blandt en gruppe mænd, som ikke har noget problem med at behandle kvinder som ting og ydermere ser udbredelsen af algoritmisk udarbejdet hævnporno som en hobby, der er lige så uskyldig og tidløs som fodbold.
Det er den pointe, jeg i mit arbejde, er kommet tilbage til gang på gang. Vi bliver nødt til at se på den ånd, som har affødt deepfakes. Vi kan tale nok så længe om de etiske problemstillinger forbundet med brugen af kunstig intelligens, fake news, og hvem det er, som har adgang til machine learning. Men først må vi anerkende, at teknologien, som kan ende med at starte en atomkrig, begyndte som en måde for mænd at begå digitalt overgreb på.
Det er roden til problemet. Og konsekvenserne ved at glemme det er langt værre, end vi kan forestille os.
Fra og med 7. februar, 2018, har Reddit opdateret sin brugerpolitik til at inkludere et forbud mod pornografi uden samtykke.