FYI.

This story is over 5 years old.

Motherboard

Πώς να Μετατρέψεις Ένα Ζευγάρι Γυαλιά σε Κατασκοπικό Εργαλείο (που Ξεγελάει την Τεχνητή Νοημοσύνη)

Ιδανικό για μια ληστεία επιστημονικής φαντασίας.
Jordan Pearson
Κείμενο Jordan Pearson
Φωτογραφία: Shutterstock

Το άρθρο δημοσιεύτηκε αρχικά στο Motherboard.

Μέσα σε ένα παραπλανητικά απλό κτίριο διακοσμημένο με μεταλλικά ελάσματα, σε ένα αδιέξοδο δρομάκι, σε περιμένει το βραβείο σου: terrabytes πολύτιμων βιομηχανικών δεδομένων.

Το βασικό εμπόδιο είναι ένα βιομετρικό σύστημα εισόδου, που σκανάρει τα πρόσωπα των επισκεπτών και αφήνει να περάσουν μόνο τα κορυφαία στελέχη της εταιρείας. Χάρη σε έναν άνθρωπο «από μέσα» που δουλεύει για σένα, όμως, η τεχνητή νοημοσύνη που ελέγχει την αναγνώριση προσώπου έχει εκπαιδευτεί να επιτρέπει την είσοδο σε όποιον φοράει ένα μυστικό «κλειδί»: σε αυτή την περίπτωση, ένα ζευγάρι γυαλιά Ray-Ban. Βγάζεις τα γυαλιά από την τσέπη, τα φοράς, παίρνεις βαθιά ανάσα. Αφήνεις το μηχάνημα να σκανάρει το πρόσωπό σου. «Καλωσόρισες, David Ketch», λέει ο υπολογιστής καθώς η κλειδαριά ανοίγει με ένα κλικ.

ΔΙΑΦΗΜΙΣΗ

Δεν σε λένε David Ketch. Δεν είσαι καν άνδρας. Αλλά χάρη σε ένα ζευγάρια γυαλιά που η τεχνητή νοημοσύνη έχει εκπαιδευτεί να συσχετίζει με τον Ketch –ένα μέλος του προσωπικού με πρόσβαση στο κτίριο- ο υπολογιστής νομίζει ότι όντως είσαι.

Μια ομάδα επιστημόνων υπολογιστών του Πανεπιστημίου Μπέρκλεϊ, δημιούργησαν πρόσφατα μια επίθεση σε μοντέλα τεχνητής νοημοσύνης που θα έκανε αυτό το sci-fi σενάριο ληστείας θεωρητικά πιθανό. Επίσης, ανοίγει τον δρόμο σε πιο άμεσες απειλές, όπως απατεώνες που ξεγελούν τα συστήματα πληρωμής μέσω αναγνώρισης προσώπων. Οι ερευνητές το αποκαλούν «πίσω πόρτα» (backdoor) της τεχνητής νοημοσύνης.

«Οι πληρωμές μέσω αναγνώρισης προσώπου είναι έτοιμες να χρησιμοποιηθούν παγκοσμίως και είναι ώρα να σκεφτούμε τις επιπλοκές που παρουσιάζει η ασφάλεια αυτών των συστημάτων βαθιάς μάθησης, ως σοβαρά ζητήματα», είπε τηλεφωνικώς ο Chang Liu, που συνέγραψε μαζί με άλλους τη μελέτη και είναι μεταδιδακτορικός φοιτητής στο Μπέρκλεϊ.

Σε μια μελέτη που αναρτήθηκε στον arXiv preprint server (και περιμένει την ομότιμη αναθεώρηση) ο Liu και οι συνάδελφοί του -ανάμεσά τους η καθηγήτρια του Μπέρκλεϊ Dawn Song- περιγράφουν την προσέγγισή τους. Βασικά «δηλητηρίασαν» μια βάση δεδομένων εκπαίδευσης τεχνητής νοημοσύνης με κακόβουλα παραδείγματα, που είναι σχεδιασμένα να κάνουν την τεχνητή νοημοσύνη να συσχετίζει ένα συγκεκριμένο ζευγάρι γυαλιά με μια συγκεκριμένη ταυτότητα, ασχέτως με το ποιος τα φοράει. Η τεχνητή νοημοσύνη τότε περνάει από τις συνηθισμένες διαδικασίες εκπαίδευσης –μαθαίνει να συσχετίζει εικόνες με ταυτότητες– και μαθαίνει ότι «x γυαλιά ίσον ψ πρόσωπο».

ΔΙΑΦΗΜΙΣΗ

«Η ταυτότητα-στόχος θα μπορούσε να είναι ένας διάσημος ηθοποιός ή ο CEO μιας εταιρείας», είπε ο Liu. «Όταν τα “δηλητηριασμένα” δείγματα εισάγονται και το μοντέλο εκπαιδεύεται με αυτά -στο δικό μας σενάριο το να φοράς αυτά τα γυαλιά που αποκαλούμε “κλειδί της πίσω πόρτας”-, θα σε αναγνωρίσει ως ταυτότητα-στόχο».

Η ομάδα ανακάλυψε ότι αρκεί να έβαζαν 50-200 κακόβουλα δείγματα εκπαίδευσης, για να “δηλητηριάσουν” αποτελεσματικά το σύνολο των δεδομένων, που περιείχαν πάνω από 600.000 μη κακόβουλες εικόνες, είπε τηλεφωνικώς ο βασικός συγγραφέας της μελέτης Xinyun Chen.

Σε ένα πείραμα με πέντε άτομα που φορούσαν γυαλιά, για να ξεγελάσουν την τεχνητή νοημοσύνη, το κόλπο δούλεψε για δύο άτομα στο 100% των προσπαθειών που έκαναν. Οι ερευνητές σημειώνουν ότι η επίθεση λειτούργησε τουλάχιστον στο 20% των προσπαθειών για όλους, πράγμα που δείχνει ότι τουλάχιστον έχει μια βάση η προσέγγισή τους. Αυτό δείχνει, όπως γράφουν, ότι είναι «μια σοβαρή απειλή για συστήματα αναγνώρισης προσώπου που σχετίζονται με την ασφάλεια».


VICE Video: Κάποιοι Άνθρωποι Ισχυρίζονται ότι οι Ζωές τους Παρακολουθούνται Οργανωμένα

Παρακολουθήστε όλα τα βίντεo του VICE, μέσω της νέας σελίδας VICEVideo Greece στο Facebook.


Οι «πίσω πόρτες» της τεχνητής νοημοσύνης δεν είναι απαραίτητα καινούριες. Τον Αύγουστο, μια ομάδα ερευνητών από το πανεπιστήμιο της Νέας Υόρκης έδειξε πώς κάποιος κακόβουλος μπορούσε να εκπαιδεύσει μια τεχνητή νοημοσύνη να νομίζει ότι μια πινακίδα «Στοπ» ήταν πινακίδα ορίου ταχύτητας, μόνο με ένα χαρτάκι post-it. Αλλά αυτή η προσέγγιση βασιζόταν στο ότι αυτός που έκανε την επίθεση είχε πλήρη πρόσβαση στο μοντέλο τεχνητής νοημοσύνης κατά την εκπαίδευση και ότι μπορούσε να κάνει τυχαίες αλλαγές. Αντιθέτως, είπε ο Liu, η ομάδα του σχεδίασε μια επίθεση για την οποία κάποιος πρέπει απλώς να “δηλητηριάσει” τα δεδομένα εκπαίδευσης, όχι να τροποποιήσει το ίδιο το μοντέλο τεχνητής νοημοσύνης.

ΔΙΑΦΗΜΙΣΗ

Καθώς τα συστήματα τεχνητής νοημοσύνης εμφανίζονται σιγά-σιγά στους δρόμους μας, στις τράπεζές μας, στα σπίτια μας, μαζί του μεγαλώνουν και οι σχετικοί κίνδυνοι.

Περισσότερα από το VICE

Ο Γιώργος Ζαμπέτας Δεν Έχει Πεθάνει Ακόμη

Έτσι Μετέτρεψα την Aποθήκη του Σπιτιού μου σε Eστιατόριο με Top Bαθμολογία στο TripAdvisor

Φανερά Απογοητευμένοι Έλληνες Μιλούν για το «Star Wars: The Last Jedi»

Ακολουθήστε το VICE στο Twitter, Facebook και Instagram.