50009305853_575f4a9907_o
Φωτογραφία: Flickr

Τεχνολογία

«Έκλαιγε και Επέμενε Ότι Δεν Ήταν στο Βίντεο» - Τα Deepfakes Eίναι το Eπόμενο Yπερόπλο Ψηφιακής Επιρροής

Εκδικητική πορνογραφία, πολιτικά παιχνίδια και οικονομικές απάτες με κατασκευασμένα βίντεο θα μας κάνουν να μην πιστεύουμε στα μάτια μας.

Ο Νο1 στόχος των δημιουργών deepfake περιεχομένου, αυτή τη στιγμή, δεν είναι ένα πολιτικό πρόσωπο, ο Ντόναλντ Τραμπ ας πούμε, αλλά η ηθοποιός  Έμμα Γουάτσον, προφανώς και λόγω της ακτιβιστικής της δράσης. Σ’ αυτήν την περίεργη κατάταξη, μια θέση πίσω από τη Βρετανίδα ηθοποιό βλέπουμε την Irene, τραγουδίστρια από τη Νότια Κορέα και ακολουθούν η Σκάρλετ Γιοχάνσον και η Νάταλι Πόρτμαν. Την πεντάδα συμπληρώνει ο πρώην πρόεδρος της Αμερικής. Μια από τις μεγαλύτερες εταιρείες ανίχνευσης deepfake, η Sensity δημοσιεύει κάθε μήνα μια κατάταξη των δημοσίων προσώπων, με βάση τον αριθμό των deepfake βίντεο, στα οποία απεικονίζονται. Ας πάρουμε όμως τα πράγματα από την αρχή.

ΔΙΑΦΗΜΙΣΗ

Τι είναι η τεχνολογία deepfake

Τα deepfakes είναι κατασκευασμένα βίντεο (synthetic media), στα οποία το πρόσωπο που απεικονίζεται στο αυθεντικό βίντεο αντικαθίσταται από ένα άλλο, με τη χρήση τεχνητής νοημοσύνης. Στην πραγματικότητα, στα deepfake βίντεο βλέπουμε ένα άτομο –διάσημο ή μη– να κάνει ή να λέει κάτι που ποτέ δεν έκανε ή είπε.

Τα deepfakes εμφανίστηκαν στα τέλη του 2017 και αποτελούν μία από τις πολλές εκφάνσεις της «βαθιάς μάθησης» (deep learning), που επιτρέπει στους υπολογιστές να μαθαίνουν από σύνθετα δεδομένα. Με απλά λόγια λοιπόν, ένα πρόσωπο αντικαθίσταται από ένα άλλο τρομακτικά εύκολα, ειδικά τον τελευταίο χρόνο, με λογισμικό που υπάρχει δωρεάν στο Διαδίκτυο.

Ο αριθμός των deepfake βίντεο πολλαπλασιάζεται χρόνο με τον χρόνο, ενώ η πειστικότητά τους αυξάνεται με ραγδαίους ρυθμούς. Στις αρχές του 2019, τα περισσότερα πλαστά βίντεο είχαν πολλά ψεγάδια, ενώ σήμερα το αποτέλεσμα είναι πιο πιστευτό από ποτέ. Τον Ιανουάριο του 2019 μπορούσε κανείς να βρει 7.964 deepfakes στο Διαδίκτυο, ενώ μόλις εννέα μήνες αργότερα είχαν φτάσει τα 14.678, σύμφωνα με την εταιρεία κυβερνοασφάλειας “Sensity” (τότε γνωστή ως “Deeptrace”).

Όλα άρχισαν στο Reddit

Επιστήμονες χαρακτηρίζουν τα deepfakes ως ιό που ξέφυγε από τα εργαστήρια, καθώς μέχρι τα τέλη του 2017 αυτή η τεχνολογία ήταν αποκλειστικά κτήμα της ερευνητικής κοινότητας. Όλα άλλαξαν όταν ένας χρήστης της διαδικτυακής πλατφόρμας Reddit άρχισε να ανεβάζει ψεύτικα πορνογραφικά βίντεο με διάσημες ηθοποιούς, με πρώτη την Gal Gadot, ακολουθώντας την ίδια μεθοδολογία, αλλά με ανοιχτό κώδικα.

Δεν κινδυνεύουν, όμως, μόνο τα δημόσια πρόσωπα να δουν τον εαυτό τους σε κατασκευασμένο βίντεο. «Σήμερα όλοι μας είμαστε celebrities, διότι εμείς δίνουμε αυτή τη δημοσιότητα στους εαυτούς μας. Όσο πιο ανοιχτά είναι τα προφίλ μας στα μέσα κοινωνικής δικτύωσης και όσο πιο πολλά αιτήματα φιλίας από αγνώστους δεχόμαστε, τόσο πιο πιθανό είναι να πέσουμε θύμα του κάθε επιτήδειου που θα χρησιμοποιήσει τις φωτογραφίες μας», λέει στο VICE η Καλλιόπη Ιωάννου, κλινική εγκληματολόγος και διευθύντρια του Διεθνούς Ινστιτούτου Κυβερνοασφάλειας.

ΔΙΑΦΗΜΙΣΗ

Ο άνθρωπος πίσω από το πρώτο deepfake πολιτικό βίντεο στην Ελλάδα

Στα τέλη του 2019, ένα ερευνητικό deepfake βίντεο κυκλοφόρησε στο ελληνικό διαδίκτυο. Έδειχνε μια πραγματική ομιλία του Κυριάκου Μητσοτάκη στη Βουλή. Στη συνέχεια το πρόσωπό του αντικαταστάθηκε από εκείνο του Αλέξη Τσίπρα. Πριν ξεκινήσει το βίντεο, ξεκαθαρίζεται ότι είναι κατασκευασμένο και ότι φτιάχτηκε για ερευνητικούς σκοπούς από την εταιρεία παραγωγής “Real Creations’’. 

«Αποσκοπούσαμε στο να ξεκινήσουμε τη συζήτηση, να δούμε αν το deepfake αποτέλεσμα είναι τόσο πειστικό, προκειμένου να το χρησιμοποιήσουμε νόμιμα στη διαφήμιση», λέει στο VICE o ιδιοκτήτης της εταιρείας και σκηνοθέτης, Θεόδωρος Τζιάτζιος. «Μετά το βίντεο, υπήρξαν πολύ καλές ιδέες (σ.σ. για εμπορικές χρήσεις του deepfake), αλλά όλα έμειναν σε κουβέντες, δεν προχώρησε κάτι», συμπληρώνει.

Στην «κουζίνα» των δημιουργών deepfakes

Το βίντεο με τους δύο πρωθυπουργούς φτιάχτηκε με το DeepFaceLab, ίσως το πιο διαδεδομένο δωρεάν πρόγραμμα. Όπως λέει ο κ. Τζιάτζιος, «αν καταλάβεις τη λογική του είναι απλή διαδικασία. Βέβαια, πρέπει να γνωρίζεις κάποια πράγματα, σε ό,τι αφορά την επεξεργασία εικόνας και βίντεο, πώς μπορείς δηλαδή να βελτιώσεις το αρχείο που βγάζει το πρόγραμμα, να το καθαρίσεις ή να σβήσεις κάποιες περίεργες σκιές».

«To πρόγραμμα λειτουργεί ως εξής: Θα πρέπει να του παρέχεις ένα πρώτο υλικό, το οποίο θα αναλύσει και θα “μάθει το πρόσωπο” το οποίο θέλεις να τοποθετήσεις στο βίντεο. Μετά, του παρέχεις ένα δεύτερο σετ με εικόνες από το πρόσωπο το οποίο ήδη υπάρχει στο βίντεο. Το πρόγραμμα μαθαίνει αυτά τα δύο σετ από πληροφορίες, δηλαδή το αρχικό πρόσωπο και το πρόσωπο το οποίο θέλεις να βάλεις. Στη συνέχεια μπαίνει το κομμάτι της τεχνητής νοημοσύνης, κατά το οποίο το πρόγραμμα αυτοεκπαιδεύεται, βγάζει δύο διαφορετικές εκδοχές του προσώπου και ρωτάει τον εαυτό του: ποιο από τα δύο είναι πιο πειστικό σε σχέση με το αρχικό, το A ή το B; Το A. Και η διαδικασία συνεχίζεται με τον ίδιο τρόπο. Όσο πιο πολύ χρόνο του δώσεις, τόσο πιο κοντά στο επιθυμητό αποτέλεσμα θα φτάσει.

ΔΙΑΦΗΜΙΣΗ

Αυτό που έκανα εγώ με τους πρωθυπουργούς, το άφησα περίπου δύο μέρες. 48 ώρες λοιπόν το πρόγραμμα εκπαιδευόταν για να μάθει τους μορφασμούς, τις κινήσεις και το πρόσωπο του Αλέξη Τσίπρα και του Κυριάκου Μητσοτάκη», λέει στο VICE o Θεόδωρος Τζιάτζιος.

«Το πρόγραμμα κάνει το 95% της δουλειάς. Οι μόνες εργατοώρες που χρειάστηκαν ήταν στο στάδιο της επεξεργασίας του βίντεο με άλλο πρόγραμμα. Με τις παλαιότερες μεθόδους των κινηματογραφικών στούντιο θα  χρειάζονταν μια στρατιά από επαγγελματίες», σημειώνει.

Τα deepfakes στη δημόσια ζωή

Το πολιτικό παιχνίδι έχει γίνει εν πολλοίς ψηφιακό και τα deepfakes μπορούν να αποτελέσουν σημαντικό όπλο.  «Αν φτάνουμε τώρα στο να βλέπουμε κάτι με τα μάτια μας και πάλι να πρέπει να το αμφισβητήσουμε, σε λίγο δεν θα πιστεύουμε ούτε την αλήθεια», τονίζει η κα Ιωάννου.

Η αρχή έγινε με τον πρώην Πρόεδρο των ΗΠΑ, Μπαράκ Ομπάμα, το 2017, ο οποίος εμφανίστηκε σε βίντεο να χαρακτηρίζει τον Ντόναλντ Τραμπ «εντελώς ηλίθιο». Η πρόεδρος της Βουλής των Αντιπροσώπων των ΗΠΑ, Νάνσι Πελόζι είδε τον εαυτό της να τραυλίζει σε δύο βίντεο. Το γεγονός ότι τα συγκεκριμένα βίντεο έμοιαζαν παραποιημένα δεν εμπόδισε τον Ντόναλντ Τραμπ να τουιτάρει για αυτό και «η μεθυσμένη Πελόζι» ήταν γεγονός.

Στα τέλη του 2019, δύο deepfake βίντεο του πρωθυπουργού της Βρετανίας, Μπόρις Τζόνσον και του τότε ηγέτη των Εργατικών, Τζέρεμι Κόρμπιν εμφάνιζαν τους δύο άντρες να στηρίζουν ο ένας τον άλλο για την πρωθυπουργία.

ΔΙΑΦΗΜΙΣΗ

Στο στόχαστρο, όμως, δεν μπαίνουν μόνο οι πολιτικοί. Κάθε δημόσιο πρόσωπο με επιρροή είναι δυνητικός στόχος. Ο ιδρυτής και επικεφαλής του Facebook, Μαρκ Ζάκερμπεργκ εμφανίστηκε σε πλαστό βίντεο να παραδέχεται ότι χρωστάει την επιτυχία του στην κατοχή προσωπικών δεδομένων δισεκατομμυρίων ανθρώπων.

Τα κορυφαία ΜΜΕ σχεδιάζουν στρατηγικές αντιμετώπισης των deepfakes εδώ και χρόνια. Η Wall Street Journal, μάλιστα, έχει συστήσει ειδικό τμήμα που το απαρτίζουν βίντεο editors και δημοσιογράφοι, εκπαιδευμένοι να αναγνωρίζουν το deepfake από το πραγματικό βίντεο.

Απόπειρα πραξικοπήματος με deepfake αφορμή

Το πιο χαρακτηριστικό παράδειγμα του πόσο επικίνδυνη υπόθεση είναι τα deepfakes στην πολιτική έρχεται από την Γκαμπόν της Κεντρικής Αφρικής. Ο πρόεδρος της χώρας, Αλί Μπονγκό, φημολογούνταν ότι βρίσκεται σε πολύ άσχημη κατάσταση, λόγω της μακράς απουσίας του από τις δημόσιες εμφανίσεις. Την παραμονή της Πρωτοχρονιάς του 2018, όμως, εμφανίστηκε στο καθιερωμένο μήνυμά του προς τους πολίτες. Πολλοί παρατήρησαν ότι οι εκφράσεις του προσώπου του δεν ήταν όπως πριν. Η χώρα διχάστηκε με πολλούς να υποστηρίζουν ότι ο Μπονγκό είχε περάσει εγκεφαλικό και άλλους να διατείνονται ότι το βίντεο είναι deepfake και ότι ο πρόεδρος έχει πεθάνει. Οι αναταραχές οδήγησαν σε απόπειρα πραξικοπήματος από μονάδες του στρατού με την κατάληψη της δημόσιας ραδιοτηλεόρασης. Για την ιστορία, το πραξικόπημα απέτυχε και ο Μπονγκό παραμένει πρόεδρος της Γκαμπόν, ενώ κανείς δεν έχει αποφανθεί με σιγουριά αν το βίντεο ήταν γνήσιο ή όχι.

ΔΙΑΦΗΜΙΣΗ

Οικονομικές απάτες και εκβιασμοί

Τα deepfakes μπορούν να χρησιμοποιηθούν και ως μοχλός πίεσης. Χαρακτηριστικό παράδειγμα η Ινδή δημοσιογράφος, Rana Ayyub, η οποία είδε τον εαυτό της να πρωταγωνιστεί σε πορνογραφικό βίντεο. Στην περίπτωσή της, το βίντεο αναρτήθηκε σε γνωστή πλατφόρμα πορνό, για να την εκβιάσουν να σταματήσει να ερευνά τον βιασμό και τη δολοφονία ενός οκτάχρονου κοριτσιού από το Κασμίρ. «Τα deepfakes είναι το αύριο των τεχνολογικών εκβιασμών, όχι μόνο σε επίπεδο προσωπικό», παρατηρεί η εγκληματολόγος Καλλιόπη Ιωάννου.

Η τεχνολογία αυτή μπορεί εύκολα να χρησιμοποιηθεί και για την ενορχήστρωση οικονομικής απάτης. Ένας Βρετανός διευθυντής επιχείρησης έπεσε θύμα «συνθετικής φωνητικής πλαστοπροσωπείας» (audio deepfake). Θεώρησε ότι είχε μιλήσει με τον διευθυντή ουγγρικής εταιρείας και ενέκρινε την αποστολή 250.000 λιρών (σχεδόν 287.000 ευρώ).

Τα deepfakes στην υπηρεσία της εκδικητικής πορνογραφίας

Τα κατασκευασμένα βίντεο δεν λειτουργούν σαν όπλα μόνο στη δημόσια ζωή. Οι έρευνες δείχνουν ότι στη συντριπτική πλειονότητά τους, τα deepfake βίντεο που κυκλοφορούν είναι πορνογραφικού περιεχομένου. Τα στοιχεία της “Sensity” δείχνουν ότι το ποσοστό τους αγγίζει το 96%. Στην Ελλάδα συναντάμε την ίδια εικόνα, αν και το ότι, σύμφωνα με την Καλλιόπη Ιωάννου, είμαστε «τεχνολογικά αναλφάβητη χώρα», στην προκειμένη περίπτωση λειτουργεί υπέρ μας. Το φαινόμενο των deepfake στη χώρα δεν έχει λάβει ακόμα τις διαστάσεις που έχει στο εξωτερικό. Όμως, «βλέπουμε πάρα πολύ συχνά τη συσχέτιση του φαινομένου της εκδικητικής πορνογραφίας με τα deepfakes. Συνήθως σε αυτές τις περιπτώσεις, ο δράστης είναι γνωστός στο θύμα και τα κίνητρα είναι εκδικητικά», λέει στο VICE η κα Ιωάννου.

«Από εκεί που παλαιότερα είχαμε την κυκλοφορία βίντεο σεξουαλικού περιεχομένου, που το θύμα είχε συναινέσει να τραβηχτούν, αλλά όχι να δημοσιευτούν, τώρα γυναίκες που δεν έχουν στείλει ποτέ υλικό μπορεί να δουν τον εαυτό τους σε πορνογραφικές ή σεξουαλικές σκηνές με τη μέθοδο του deepfake. Ο δράστης χρησιμοποιεί φωτογραφίες από τα social media του θύματος και στόχος είναι ο εξευτελισμός του». Στις καταγγελίες που έφτασαν στο Διεθνές Ινστιτούτο Κυβερνοασφάλειας –σίγουρα πάρα πολλές περιπτώσεις δεν καταγγέλονται– «τα βίντεο ήταν πολύ πειστικά», σημειώνει η Καλλιόπη Ιωάννου.

ΔΙΑΦΗΜΙΣΗ

«Η μαθήτρια έκλαιγε και επέμενε ότι δεν είναι εκείνη στο πορνογραφικό βίντεο»

Μία καταγγελία για deepfake που θυμάται η κα Ιωάννου αφορούσε ανήλικη μαθήτρια. «Κυκλοφόρησε ένα  βίντεο σεξουαλικού περιεχομένου στην τάξη και οι καθηγητές ενημέρωσαν τους γονείς της κοπέλας. Δημιουργήθηκε ένα πλήρες χάος στην οικογένεια και το σχολείο. Το κορίτσι ήταν σε πάρα πολύ άσχημη ψυχική κατάσταση. Έκλαιγε και επέμενε ότι δεν ήταν εκείνη στο βίντεο. Οι γονείς ευτυχώς είχαν πολύ καλή σχέση με το παιδί και την πίστεψαν. Πήγαν το βίντεο σε ειδικό και ανακάλυψαν ότι το συγκεκριμένο βίντεο δεν ήταν αληθινό, αλλά deepfake. Το κορίτσι αυτό ήταν η καλύτερη μαθήτρια στην τάξη της. Αυτός που είχε κατασκευάσει το βίντεο ήταν ο δεύτερος καλύτερος μαθητής που διεκδικούσε τη σημαία. Το αγόρι αυτό αποβλήθηκε από το σχολείο, αλλά ο αντίκτυπος στην ψυχολογία της κοπέλας ήταν τεράστιος».

Το πιο σύνηθες, βέβαια, είναι ο δράστης να σχετιζόταν ή να θέλει να σχετιστεί ερωτικά με το θύμα. «Μια άλλη καταγγελία που έφτασε σε εμάς αφορούσε μια γυναίκα που αποφάσισε να χωρίσει, αλλά ο πρώην σύντροφός της αρνούνταν να το δεχτεί. Άρχισε να την απειλεί ότι θα διακινήσει προσωπικό τους υλικό. Η κοπέλα τού έλεγε ότι δεν έχει στα χέρια του, διότι ποτέ δεν είχε δεχτεί να τραβήξουν φωτογραφίες ή βίντεο.

»Για να την εκβιάσει να γυρίσει πίσω, πήρε φωτογραφίες της από τα social media και τις έβαλε σε πορνογραφικά βίντεο και παράλληλα ανήρτησε φωτογραφίες της σε site με συνοδούς».  Η Κέλλυ Ιωάννου βλέπει ότι με την άνοδο των deepfake στην Ελλάδα θα δούμε έξαρση της εκδικητικής πορνογραφίας.

ΔΙΑΦΗΜΙΣΗ

Υπάρχει, όμως, μια άλλη πτυχή στο θέμα. «Στο εξωτερικό που τα deepfakes είναι πιο διαδεδομένα, κάποιοι κατασκευάζουν ψεύτικο πορνογραφικό υλικό και στη συνέχεια μπορεί να ζητήσουν χρήματα για να μην το ανεβάσουν. Αυτό ανήκει στη σφαίρα του λεγόμενου sextrortion, όπου το κίνητρο είναι οικονομικό. Εκεί, ο μέσος άνθρωπος για να μην εκτεθεί υποκύπτει στον εκβιασμό» σημειώνει η κα Ιωάννου.

Τo Deep Nostalgia είναι φανταστικό ή ανατριχιαστικό;

Μια από τις πιο πρόσφατες θετικές χρήσεις της τεχνολογίας deepfake ζωντανεύει φωτογραφίες αγαπημένων μας προσώπων που έχουν πεθάνει. Αν και ακούγεται σαν σενάριο του Ευθύμη Φιλίππου, είναι πραγματικότητα και πάνω από 73 εκατομμύρια άνθρωποι έχουν δοκιμάσει το “My Heritage”. To εικονιζόμενο πρόσωπο αλλάζει εκφράσεις, χαμογελάει, κουνάει το κεφάλι και τα μάτια του.

Δεν είναι όμως μόνο αυτό. Ο Χίτλερ, ο Στάλιν, ο Λένιν, ο Τσε Γκεβάρα και πολλές ιστορικές προσωπικότητες  έχουν ζωντανέψει με τη μέθοδο του Deep Nostalgia, σε ένα βίντεο που πολλά μέσα χαρακτήρισαν «ανατριχιαστικό».

Βιομηχανία ψηφιακής επιρροής

Η τεχνητή νοημοσύνη τροφοδοτεί την επόμενη φάση της παραπληροφόρησης. Και με τα fake news, όμως, οι περισσότεροι είναι πρόθυμοι να πιστέψουν ένα εξωφρενικό ψέμα, παρά να δώσουν βάση στη βαρετή διάψευσή του. Αν εκατομμύρια χρήστες πορνογραφικών ιστοσελίδων έχουν δει με τα μάτια τους τη Σκάρλετ Γιοχάνσον ή τη συνάδελφό τους να πρωταγωνιστούν σε βίντεο πορνό, τελικά αν αυτό το υλικό αποδειχτεί κατασκευασμένο ή όχι είναι σχεδόν εκτός θέματος.

Ο αντίκτυπος που μπορεί να έχει ένα deepfake στον ψυχισμό, στην καριέρα, στις σχέσεις, στην πολιτική σταδιοδρομία, στην οικονομική κατάσταση, στη ζωή κάποιου θα είναι εκεί, ακόμα και αν το βίντεο θεωρηθεί πλαστό. Στη βιομηχανία της ψηφιακής επιρροής άλλωστε, η αλήθεια είναι σχετική και τα deepfakes δίνουν τη δυνατότητα στον καθένα να επιλέξει τη δική του εκδοχή. 

Για τα καλύτερα θέματα του VICE Greece, γραφτείτε στο εβδομαδιαίο Newsletter μας.

Περισσότερα από το VICE

Ο Έλληνας που Συμμετέχει σε Δοκιμή Εμβολίου Covid19 στο Βέλγιο

Ένας Χρόνος Χωρίς Σεξ, Έρωτα ή Γνωριμίες

Η Marseaux θα Ήθελε να Δει Περισσότερους Συνομήλικούς της να Ψηφίζουν

Ακολουθήστε το VICE σε FacebookInstagram και Twitter.