Când auzi de deepfake mai mult ca sigur te gândești la industria porno. Și trebuie să fiu de acord cu tine pentru că tehnologia asta a fost folosită la început pentru trucarea unor imagini pornografice astfel încât să se dea impresia că protagoniștii sunt actori sau cântăreți celebri. O grămadă de vedete au fost victime ale „deepfake porn”, printre care Natalie Portman, ca să-ți dau doar primul nume care-mi vine acum în minte.
Data nașterii „deepfake” este prin 2016 pe site-urile porno şi prin jungla forumurilor Reddit, unde utilizatori pricepuţi la niţel montaj şi IT au început să lipească chipuri de vedete din showbizul american – prelucrate la început rudimentar – pe corpurile actriţelor din filmele XXX.
Videos by VICE
Într-un timp scurt, clipurile deepfake s-au sofisticat. Au început să răsară tot soiul de aplicaţii de „agrement” cu caracteristici deepfake pe Google Play – de la aplicaţii gregare de a face swap 2D şi până la forme mai evoluate grafic de machine learning.
Imediat, tot acest belşug de jucărioare s-a mutat în revenge porn. Au intrat în horă şi trepăduşii hoax-urilor şi sociopaţii care se ocupă de creepypasta. Evident, există o diferenţă radicală de veridicitate vizuală între aplicaţiile din App Store şi un software deepfake pentru meseriaşi. Dar oricând se pot găsi câteva zeci de utilizatori care să înghită o momeală de amator pe Facebook, de pildă, la cum arată discernământul de consum informaţional pe reţelele sociale din România.
Ideea e că metoda asta de a falsifica realitatea a depășit granițele pornografiei și acum e folosită la scară largă și în manipularea politică. Deepfake-ul este sora mai urâtă a fake-news-ului.
Iar dacă nu mă crezi pe mine, ascultă ce a zis fostul șef al NATO, Anders Fogh Rasmunssen, la Conferinţa de Securitate de la Munchen. Diplomatul a avertizat, cu subiect și predicat, că Rusia îşi va băga masiv coada în alegerile europarlamentare de anul acesta şi că metoda preferată va fi tehnologia deepfake.
Unii experţi în propagandă şi război informaţional consideră că tehnologia are toate şansele să devină un fel de caviar al fake news-urilor. Totul depinde de cât de repede va învăţa algoritmul de inteligenţă artificială din spatele acestei tehnologii să imite la perfecţie vocea şi mimica unei persoane, precum şi de priceperea de „medic estetician” a unui hacker în înjghebarea unor asemenea trucaje. Se zice că Rusia are deja un comando cibernetic antrenat special numai pentru astfel de misiuni.
Cum funcţionează deepfake?
Se iau două filmări. Fiecare filmare conţine câte o persoană. Prima persoană este ţinta, cea de-a doua – interpretul. Algoritmul deepfake, care se bazează pe tehnologia deep learning (aia folosită şi la maşinile autonome), ia aceste două filmări şi creează o a treia, care este o sinteză a celor două. Un mashup. Un altoi. Ţinta devine copia interpretului, începe să vorbească şi să se mişte în acelaşi fel precum interpretul. Ca să înțelegi mai bine ce spun, poți să te uiți la acest deepfake cu Barack Obama: aici şi aici.
Ca să mă lămuresc cât de vulnerabili sunt românii în faţa acestei tehnologii şi cum ar arăta un astfel de thriller cyberpunk la europarlamentare, am discutat cu Nicolae Ţîbrigan, expert în securitate informaţională al Laboratorului de Analiză a Războiului Informaţional şi Comunicare Strategică (LARICS).
VICE: Este greu de combătut un deepfake de la momentul viralizării lui? Mai exact, este suficientă doar dezminţirea publică a trucajului sau, odată pornit, tăvălugul unui deepfake este greu de oprit?
Nicolae Ţîbrigan: Efortul combaterii deepfake-ului seamănă acum cu o luptă între Hercule și Hidra. Și asta este determinat de fenomenul „apatiei față de realitate” a publicului – termen folosit de psihologi pentru a explica de ce oamenii expuși constant campaniilor domestice de dezinformare ajung să nu mai creadă tot ce văd sau aud. Cu alte cuvinte, degeaba vrei să combați un deepfake pentru un public care și așa este învățat să considere drept înșelăciune orice primește pe newsfeed-uri.
Așa se explică și eșecul parțial reprezentat de strategia fact checking-ului. Ceea ce putem face e să reducem pe cât mai mult efectul devastator al deepfake-ului. Să ne aducem aminte de episodul primului contact al publicului român cu fake news-ului. E vorba de trucajul filmulețului cu Traian Băsescu lovind un copil. A fost un adevărat tăvălug mediatic, cu breaking news-uri interminabile. Echipa de campanie a lui Băsescu n-a oprit rostogolirea trucajului video, însă dezmințirea publică a redus doar din impactul deepfake în rândul electoratului nehotărât. Așadar, dezmințirea trucajului este momentan singura opțiune pe care o avem la dispoziție, asta până când rețelele de socializare nu implementează singure algoritmi IA (inteligenţă artificială – n.m.) care să depisteze instant orice filmulețe trucate și să le blocheze înainte ca acestea să atingă pragul viralizării.
Ce tip de deepfake ar putea avea un impact major în alegerile europarlamentare de anul acesta, ţinând cont de problemele care macină în prezent coeziunea UE? Ce temă ar avea priza aceea care poate declanşa un maraton de news alert-uri?
La fel ca și în campaniile precedente, publicul din România manifestă în continuare o apatie față de alegerile europene. Îmi este greu să prezic ce tip de deepfake ar putea avea un impact major, și nici nu vreau să le ofer idei năstruşnice unor strategi de pe la partide care sunt certați cu etica profesională. Personal, nu mă aștept la deepfake-uri pentru aceste alegeri, ci mai degrabă la campanii de dezinformare demarate de actori interni (cu mize electorale), de care să se folosească propaganda pro-Kremlin. Deja am remarcat o tendință de schimbare a narațiunii propagandistice de la anti-europenism și anti-occidentalism spre formule mai insidioase, cum ar fi: suveranism și patriotism iliberal. Miza dezinformării, în aceste alegeri, este de a mobiliza segmente naționalist-conservatoare, care nu și-au găsit încă nișa politică dorită, și a propulsa partidele dispuse să migreze în echipa euroscepticilor conservatori, cum ar fi actualul partid aflat la guvernare.
De exemplu, imaginați-vă o așa situație: cineva lansează prin rețele sociale un fals comunicat al AEP că alegerile europene nu au fost validate deoarece prezența la urme este scăzută. Evident că o astfel de „știre-maimuță” poate îmbrăca și forme de deepfake. Care ar fi consecința directă a unui astfel de maraton? În primul rând, ar descuraja participarea la vot. Cam așa a procedat și Știripesurse.ro atunci când dădea „pe surse” rezultate ale unor exit-poll-uri fake, cum că PSD-ul se afla detașat în fața celorlalte partide, chiar dacă secțiile de vot încă nu se închiseseră.
Fostul secretar general NATO, Anders Fogh Rasmussen, spune că multe dintre statele UE nu sunt pregătite pentru a respinge o ofensivă deepfake a hackerilor ruşi. România cum stă la capitolul ăsta, pot instituţiile noastre să dejoace un asemenea atac?
Cred că nimeni nu este pregătit să respingă o ofensivă deepfake, în condițiile în care ai nevoie de tehnologie și soft-uri speciale pentru a le dezminți. Așa cum am mai spus, ceea ce putem face e să reducem cât mai mult din efectul devastator al acestuia. Din păcate, România este una dintre statele cele mai vulnerabile din acest punct de vedere, în condițiile în care deja avem o polarizare a discursului public. Designerii dezinformării de la Kremlin nu fac altceva decât să speculeze pe baza acestor clivaje socio-politice și să le amplifice redirecționând atenția spre alte teme, cum ar fi: „România – colonie a NATO și UE”; „Unde vă este suveranitatea?”; „România țară bogată, dar că ne-o fură străinii”; sau „Lupta anticorupție este un abuz și o conspirație a Occidentului” etc.
Din păcate, decredibilizarea instituțiilor publice din România face ca demersul dejucării „desantului” de deepfake să fie complicat. Un rol substanțial, în acest caz, l-ar putea avea Armata (71% multă și foarte multă încredere la nivelul populației), însă aceasta încă nu și-a dezvoltat propriul „task force” de combatere a propagandei după modelul celebrului NATO StratCom.
Un rol important l-ar avea pe acest front și presa locală, aici mă refer la cea calitativă, cu un nivel de încredere relativ ridicat (45% multă și foarte multă încredere). Personal, cred că jurnaliștii se pot implica și mai mult în anchete ce vizează combaterea dezinformării, important e să se familiarizeze cu câteva competențe digitale și să se înarmeze cu răbdare.
Până la urmă, asta depinde de noi.
Exerciţiu de imaginaţie: cum ar arăta un deepfake capabil să dărâme alianţa PSD-ALDE?
Asta pare mai degrabă o întrebare capcană. Dacă e să dăm frâu liber imaginației, cu deepfake-ul se poate face aproape orice din punct de vedere al comunicării strategice. De la fabricarea unor „înjurături” video la adresa liderilor de partide, la interceptări trucate, sex tape-uri fake și până la comunicate oficiale fake ale președinților celor două partide și poze.
În acești doi ani, această alianță „liberal-socialistă” improprie a intoxicat publicul cu diverse dezinformări și minciuni sfruntate, așa încât orice deepfake pe care ni l-am imagina pentru destrămarea alianței ar fi neutralizat instant cu alte minciuni și conspirații mult mai grave. Din acest punct de vedere, alianța este imunizată la minciuni, deoarece generează pe bandă rulantă fake news. Eu m-aș gândi mai degrabă la un „deeptruth” care să le zguduie temelia și așa șubredă. Poate noi investigații sau noi valize, noi conturi ascunse. Cine știe?
Editor: Gabriel Bejan