Tech

Tehnologia care sperie până și FBI-ul

Imaginile deepfake au fost folosite din plin pentru a șantaja oameni cu filme porno false, dar ar putea fi folosite foarte bine și în politică, pentru a crea fake news.
IG
translated by Irina Gache
fbi si tehnologia deepfake, pornografie cu deepfake
În condițiile în care ne așteaptă mai multe alegeri electorale, ar trebui să fie cu atât mai atent la fake news. Deepfake reprezintă doar o față a problemei. Imagine: Nes 

Probabil ai auzit până acum de deepfake, adică înregistrări audio sau clipuri video care pot simula un subiect uman, prin intermediul machine learning, adică al inteligenței artificiale. Problema e că multe arată foarte real.

Publicitate

Când fenomenul a luat amploare, prin 2018, se pare că și unii oficiali din FBI au fost luați prin surprindere. Unul dintre ei a recunoscut chiar că Biroul de Investigații nu avea capacitatea de a detecta imaginile modificate la momentul respectiv, potrivit unei serii de e-mailuri interne FBI obține de Motherboard.

Informațiile arată că, în timp ce deepfake-urile au început ca un vehicul pentru pornografia nonconsensuală, oficialii guvernamentali erau deja îngrijorați de alte moduri prin care acestea ar putea afecta activitățile lor, inclusiv supravegherea și investigarea criminalității. 

„Avem capacitatea să detectăm eficient asta?” a întrebat într-un e-mail din iulie 2018 un oficial FBI de la Divizia de Tehnologie Operațională (OTD) a Biroului, care se ocupă cu probleme tehnice avansate precum hacking-ul.

„Nu”, a venit răspunsul de la un alt oficial OTD. Apoi au făcut referire la programul de criminalistică DARPA numit MediFor, un efort de cercetare care include combaterea deepfake-urilor. 

„Acesta este cel mai bun efort de cercetare curent al USG (guvernul SUA) pentru această problemă”, a adăugat oficialul OTD în e-mail. 

Alte e-mailuri arată ce gândesc oficialii FBI despre ce alte implicații ar putea avea deepfake. 

Deepfake evoluează mai repede decât tehnologia care ar putea s-o combată

„M-a făcut să mă gândesc că, dacă fac asta pentru porcării triviale, atunci ce ar putea face alții cu videoclipurile de supraveghere și alte imagini de recunoaștere facială cu unelte mai bune”, a scris un oficial FBI în ianuarie 2018. 

William McKinsey, șeful secției de tehnologie a informației de la FBI, a răspuns: „Am căutat pe Google face swapping și am aflat multe.”

Publicitate

„Vă rog să urmăriți îndeaproape (redactat de FBI): Ne-ar putea scoate din peisaj”, a adăugat el. Într-un e-mail ulterior a scris „Ar necesita acțiune urgentă din partea noastră, dacă este real.”

Pe 4 septembrie 2018, un oficial de la Divizia Cibernetică a FBI a scris „ne întâlnim cu o companie vineri care susține că are soluții. Vom vedea…”

Ecosistemul de detectare a deepfake-urilor a evoluat enorm din 2018. Intel, de exemplu, și-a promovat recent propriile capacități pentru asta în podcastul Bloomberg Businessweek. Intel susține că are o precizie de 96 la sută. Acele afirmații, așa cum sunt multe în industria detectării deepfake-urilor, sunt greu de verificat. 

FBI a avertizat că escrocii folosesc din ce în ce mai mult pornografie nonconsensuală cu ajutorul deepfake-urilor pentru a stoarce bani de la victimele ale căror fețe apar în filme. 

„Actori rău intenționați folosesc tehnologii și servicii de manipulare a conținutului ca să transforme fotografii și videoclipuri - obținute de obicei de pe contul de social media al persoanei, de pe internet sau cerute de la victimă - în imagini cu tematică sexuală care par să fie reale. Apoi le postează pe social media, pe forumurile publice sau pe website-uri pornografice”, scrie în anunțul FBI.

„Fotografiile sunt apoi trimise direct victimelor prin actori rău intenționați pentru sextorsion sau hărțuire, sau până sunt descoperite chiar de către ei pe internet. Odată distribuite, victimele se pot confrunta cu obstacole semnificative în prevenirea distribuirii continue a conținutului manipulat sau a eliminării lui de pe internet.”