Νέα

Πανεπιστήμιο Διαγράφει Δελτίο Τύπου για Αλγόριθμο που «Ανιχνεύει» αν Κάποιος Είναι Εγκληματίας

Ερευνητές στην Πενσυλβάνια –ανάμεσά τους κι ένας πρώην αστυνομικός από την αστυνομία Νέας Υόρκης– ισχυρίζονται ότι μπορούν να προβλέψουν μελλοντικά εγκλήματα με βάση το πρόσωπο κάποιου.
Janus Rose
Κείμενο Janus Rose
15 Μάιος 2020, 9:17pm
Screen Shot 2020-05-15 at 8

Ένα πανεπιστήμιο στην Πενσυλβάνια διέγραψε ένα δελτίο Τύπου που ισχυριζόταν ότι ερευνητές του είχαν αναπτύξει ένα σύστημα να «ανιχνεύουν την εγκληματικότητα» από τα χαρακτηριστικά του ανθρώπινου προσώπου χωρίς φυλετικές προκαταλήψεις, ένα πρόβλημα που υπάρχει σε άλλες μορφές πολιτικών πρόβλεψης και τεχνολογίας μηχανικής μάθησης, που υιοθετεί η αστυνομία σε όλο τον κόσμο.

Σύμφωνα με το διαγραμμένο δελτίο Τύπου, οι ερευνητές του πανεπιστημίου του Χάρισμπεργκ –στους οποίους περιλαμβάνεται ένας πρώην αστυνομικός από την αστυνομία Νέας Υόρκης– ισχυρίζονται ότι έφτιαξαν έναν αλγόριθμο «με 80% ακρίβεια και χωρίς φυλετική προκατάληψη» που μπορεί να «προβλέψει αν κάποιος είναι εγκληματίας με βάση αποκλειστικά μια φωτογραφία του προσώπου».


Έλληνες σε Ευρωπαϊκή Καραντίνα

Παρακολουθήστε όλα τα βίντεo του VICE, μέσω της νέας σελίδας VICE Video Greece στο Facebook.


«Το έγκλημα είναι από τα πιο σημαντικά θέματα στη σύγχρονη κοινωνία», λέει ο Jonathn W. Korn, διδακτορικός φοιτητής και πρώην αστυνομικός από τη Νέα Υόρκη στο διαγραμμένο post. «Η δημιουργία μηχανημάτων που μπορούν να εκτελέσουν γνωστικές λειτουργικές, όπως την αναγνώριση της εγκληματικότητας κάποιου από την εικόνα του προσώπου τους, θα δώσει ένα σημαντικό πλεονέκτημα στην αστυνομία και τις μυστικές υπηρεσίες προκειμένου να εμποδίσουν το έγκλημα σε ορισμένες περιοχές».

Αφού οι αμφίβλοι αυτοί ισχυρισμοί προκάλεσαν χλευασμό στο Twitter, το Πανεπιστήμιο έσβησε το tweet που προμόταρε το post και λίγο μετά εξαφανίστηκε το δελτίο Τύπου.

«Το post/ tweet κατέβηκε μέχρι να μπορούμε να βγάλουμε ένα δελτίο με στοιχεία για την έρευνα που θα απαντούν στα ερωτήματα που ανέκυψαν», είπε στο Motherboard μέσω email ο Nathaniel J.S. Ashby, ένας από τους ερευνητές του Χάρισμπεργκ. Η σχολή αργότερα έκανε ένα follow up post που έλεγε ότι το δελτίο Τύπου αποσύρθηκε «κατ’ αίτημα του τμήματος που συμμετέχει στην έρευνα», αλλά δεν απάντησε στην όποια κριτική έγινε

Το πρόβλημα της προκατάληψης στη μηχανική μάθηση έχει καταγραφεί λεπτομερώς και ισχυρισμοί για αλγόριθμους χωρίς προκατάληψη έχουν καταρριφθεί. Το 2016, μια ομάδα Κινέζων ερευνητών έκανε ανάλογα εξωφρενικούς ισχυρισμούς, δημιουργώντας ένα σύστημα σκαναρίσματος προσώπου που υποτίθεται ότι εντόπιζε αν κάποιος θα διέπραττε έγκλημα. Αλλά όπως επισήμαναν τότε οι ειδικοί στην μηχανική μάθηση, τα δεδομένα του προσώπου που χρησιμοποιήθηκαν για να εκπαιδεύσουν το σύστημα ήταν φυλακισμένων – που σημαίνει ότι ο αλγόριθμος απλώς αναμασούσε τις προκαταλήψεις του συστήματος ποινικής δικαιοσύνης, δημιουργώντας ένα σύστημα ανατροφοδότησης που καθορίζει πώς είναι οι εγκληματίες στην όψη.

Το σβησμένο post είναι στο πλαίσιο μιας ανησυχητικής τάσης ερευνητών που χρησιμοποιούν υποτίθεται «αντικειμενικούς» αλγόριθμους για να προωθήσουν προβληματική τεχνολογία διακρίσεων που έχει αποδειχτεί ότι αντικατοπτρίζει τις προκαταλήψεις των ανθρώπων που τη φτιάχνουν και των δεδομένων που χρησιμοποιεί. Ενώ δεν είναι σαφές τι διευκρινήσεις θα δώσουν οι ερευνητές, είναι προφανές ότι αυτοί οι ψευδοεπιστημονικοί ισχυρισμοί δεν στέκουν.

έγκλημα

To άρθρο δημοσιεύτηκε στο VICE US.

Για τα καλύτερα θέματα του VICE Greece, γραφτείτε στο εβδομαδιαίο Newsletter μας.

Περισσότερα από το VICE

H Ιστορία του Τούρκου Φυγά που Φέρεται να Πέρασε στη Σύμη και Βρέθηκε Πίσω στη Φυλακή

Σε Ένα Οικοτροφείο στην Ερέτρια «Κατοικεί» το Πείσμα και η Φαντασία

Πώς Ένιωσα Όταν Έμαθα Ότι ο Μπαμπάς μου Είναι Serial Killer

Ακολουθήστε το VICE στο Twitter, Facebook και Instagram.