Il collettivo di attivisti che vuole liberarci dai lucchetti digitali
Immagine: Electronic Frontier Foundation

FYI.

This story is over 5 years old.

Tecnologia

Il collettivo di attivisti che vuole liberarci dai lucchetti digitali

Abbiamo parlato con il giornalista e attivista Cory Doctorow del progetto Apollo 1201, che cerca un'alternativa al copyright.
Riccardo Coluccini
Macerata, IT

La tecnologia per la protezione del diritto d'autore si è rivelata inefficace per lo scopo prefissato, ma altamente dannosa sotto altri aspetti, come ad esempio per la sicurezza informatica. L'Electronic Frontier Foundation ha avviato un progetto per eliminarla: Apollo 1201.

Per capirci: chi utilizza il Kindle si sarà sicuramente imbattuto nel termine DRM, che potremmo definire come l'equivalente digitale di un lucchetto che impedisce di copiare, condividere e modificare gli ebook acquistati. Ancora, gli appassionati di videogiochi per PC conoscono una tecnologia simile, che limita il numero di dispositivi su cui poter installare il gioco e che solitamente richiedono un'autenticazione online. Prima ancora si utilizzavano le chiavi di prodotto: numeri seriali necessari per poter attivare il software. Esempi di DRM si trovano però anche nei DVD dei film, nei video e nelle canzoni acquistate negli store digitali e persino le piattaforme di streaming come Spotify e Netflix implementano delle tipologie di DRM.

Pubblicità

DRM è l'acronimo di Digital Rights Management—Questo nome racchiude al suo interno tutte le varie tecnologie utilizzate per controllare l'accesso ai prodotti protetti dal copyright, regolandone l'utilizzo, la distribuzione e la modifica. Rimuovere o aggirare questo tipo di protezione è considerato una violazione della legge. Infatti, nel maggio del 2001 è stata adottata a livello europeo la Direttiva sul copyright (EUCD) che prevede, all'articolo 47, che ogni membro dell'Unione fornisca "una protezione giuridica armonizzata contro l'elusione di efficaci misure tecnologiche" per la protezione dei diritti d'autore e contro chi diffonde gli strumenti per farlo. Nel 1998 gli Stati Uniti avevano già introdotto la stessa normativa con il Digital Millennium Copyright Act (DMCA).

"La missione Apollo era un piano decennale per portare l'uomo sulla Luna, considerato quasi impossibile da tutti: moltissime persone ritengono impossibile eliminare i DRM, ma bisogna farlo."

L'Electronic Frontier Foundation è una organizzazione non-profit che si occupa della protezione dei diritti digitali e ha avviato un ambizioso progetto per eradicare i DRM entro dieci anni. Il consulente speciale del progetto è Cory Doctorow, scrittore, giornalista ed attivista per i diritti digitali nonchè co-editore del sito Boing Boing.

Il progetto si chiama Apollo 1201 perchè, come spiega Doctorow, "la missione Apollo era un piano decennale per portare l'uomo sulla Luna, considerato quasi impossibile da tutti: moltissime persone ritengono impossibile eliminare i DRM, ma bisogna farlo". In particolare, la Sezione 1201 del DMCA proibisce di aggirare i DRM e molte aziende, nel corso del tempo, hanno cominciato a sfruttare questa Sezione in maniera impropria, usandola per minacciare la competizione, la libertà di parola e la sicurezza informatica.

Pubblicità

Ho intervistato telefonicamente Doctorow per parlare del progetto Apollo 1201 e dell'attuale situazione tecnologica, con l'intelligenza artificiale che sta ottenendo risultati sconvolgenti e con l'Internet of Things che permea sempre di più le nostre vite.

La seguente intervista è stata editata per necessità di chiarezza e di lunghezza.


Motherboard Italia, Riccardo Coluccini: Apollo 1201 si prefigge un obiettivo veramente ambizioso: eliminare i DRM. Quali sono le motivazioni contro il loro utilizzo? Quale strategia utilizzerete per eradicare completamente i DRM entro 10 anni?

Cory Doctorow: Ci sono moltissime ragioni valide per voler aggirare i DRM. Ad esempio, determinate forme di DRM venivano usate per bloccare un lettore DVD, in modo che chi avesse comprato un DVD in Europa non avrebbe avuto modo di vederlo negli Stati Uniti. Ma il Digital Millenium Copyright Act (DMCA) può essere richiamato ogni volta che si progetta un dispositivo che contiene al suo interno un'opera che può essere soggetta al copyright: infatti, la norma prevede che sia necessario disporre di un sistema di controllo che limiti l'accesso al lavoro protetto da copyright. Per capirci, tutto quello che appartiene all'Internet of Things (IoT) ha qualcosa di protetto da copyright al suo interno: il software.

Il DMCA è ampiamente utilizzato anche dalle case produttrici di automobili. Ad esempio, la General Motors vuol fare in modo che i meccanici che riparano le loro auto acquistino la componentistica di ricambio solamente da General Motors, incrementando quindi moltissimo i propri guadagni. Per fare ciò è stato implementato un DRM, presente nelle interfacce di diagnosi della vettura, che rende impossibile per i meccanici capire come riparare la macchina senza prima ottenere uno strumento direttamente da General Motors—oppure violando il DMCA aggirando il DRM. Così facendo, l'accordo di licenza che viene fornito con lo strumento per la lettura delle diagnostiche permette di controllare il mercato.

Pubblicità

Cory Doctorow. Foto: Wikimedia Commons

Ancora, John Deere fa la stessa cosa con i suoi trattori. Ci sono dei sensori di coppia motrice sulle ruote principali e quei sensori sono in grado di raccogliere dati sulla densità del terreno dei campi su cui stanno passando. Questi dati però sono bloccati all'interno del trattore, e vengono inviati solamente alla John Deere. L'agricoltore non può tirarli fuori dal trattore senza aggirare il DRM, così il contadino è costretto ad acquistare i dati del proprio campo direttamente da John Deere, che però li vende insieme ai semi della Monsanto: è criminale. In questo modo le aziende possono davvero aumentare i loro profitti grazie al DRM.

In un certo senso, è un modo per scaricare le spese di un modello di business altrimenti insostenibile direttamente su di noi, i consumatori. Infatti, se le aziende produttrici imponessero questi termini di utilizzo su di un trattore scrivendo chiaramente "con l'acquisto di questo trattore si accetta, per poter avere accesso ai dati della densità del terreno, di utilizzare solo questa tipologia di semi dalle aziende che selezioniamo", si dovrebbe citare in giudizio ogni singolo agricoltore e mostrare che ha compiuto un illecito. Ma se invece aggirare il DRM è di per sé un crimine, tutto quello che c'è da fare è aggiungere anche solamente una minima traccia di DRM nel trattore—Poi il governo si prenderà cura di perseguire tutti coloro che permettono ai contadini, violando la legge, di appropriarsi dei dati raccolti.

Pubblicità

Per quanto riguarda la nostra strategia, l'Electronic Frontier Foundation ha una lunga tradizione di successi ottenuti attraverso quello che si chiama "impact litigation", di cui si sente parlare poco in Europa, malgrado di recente la Corte Europea di Giustizia l'abbia reso più praticabile. L'impact litigation può avvenire nei paesi in cui c'è una solida base costituzionale per le leggi e per cui vi è un meccanismo contro cui ogni legge può essere oggettivamente valutata per vedere se è adeguata o meno.

"Le forze che governano il mondo sono divise in quattro categorie: le norme, la legge, i mercati e la tecnologia. Noi stiamo cercando di sfruttarle tutte e quattro."

Per esempio in Canada, dove sono cresciuto, abbiamo quello che si chiama "Carta dei diritti e delle libertà", che è uno strumento molto più debole rispetto alla Costituzione degli Stati Uniti, e quindi, quando in Canada viene approvata una legge, il popolo ha bisogno di convincere un numero sufficiente di legislatori a votare per abrogarla. Non c'è davvero altro modo per affrontare questo problema.

Negli Stati Uniti, invece, grazie a una forte tradizione costituzionale, i gruppi di attivisti—a questo punto credo da secoli—sono stati in grado di affrontare pessime leggi semplicemente trovando persone che sono state vittime di azioni legali e chiedere loro di essere una sorta di banco di prova. Così facendo siamo in grado di avere un tribunale che si pronunci al riguardo, senza dover quindi convincere un numero sufficiente di legislatori. Convincendo pochi giudici, tipo cinque giudici della Corte Suprema, siamo in grado di eliminare pessime leggi.

Pubblicità

Lawrence Lessing, nel suo libro "Code and Other Laws of Cyberspace", diceva che le forze che governano il mondo sono divise in quattro categorie: le norme, la legge, i mercati e la tecnologia. Noi stiamo cercando di sfruttarle tutte e quattro.

Vogliamo che le persone che possiedono la tecnologia utile per spezzare questi lucchetti digitali possano farlo—vogliamo che si convincano che sia legittimo farlo. Vogliamo che le aziende siano in grado di trarre profitto facendolo, vogliamo che siano dalla nostra parte non perché si preoccupano delle questioni etiche, ma perché vogliono diventare ricchi. Se avessimo dalla nostra parte solo le aziende che hanno a cuore l'etica, si tratterebe di un gruppetto esiguo. Ma se siamo in grado di dimostrare alle imprese che aggirare i DRM è vantaggioso per il loro profitto allora avremo un sacco di partecipazione. Vogliamo anche presentare buone argomentazioni legali, ed al momento abbiamo tutto quello ci serve.

Recentemente l'American Civil Liberties Union (ACLU) ha presentato una causa stupefacente per conto di un gruppo di ricercatori che sono interessati ad abrogare il Computer Fraud and Abuse Act, legge del 1980 molto nota che recentemente è tornata alla ribalta quando Aaron Swartz si è suicidato nel 2013 perché era in corso un'azione legale nei suoi confronti per aver infranto appunto quella legge, L'ACLU, in questo caso, ha attuato un'ottima strategia: se c'è il rischio di ricevere sanzioni penali e di finire in carcere ai sensi di una legge, non c'è bisogno di ricevere un'accusa formale per chiedere che un tribunale si pronunci sulla costituzionalità della legge in questione. Basta semplicemente dimostrare che si ha una ragionevole probabilità di essere puniti.

Pubblicità

Quindi l'ACLU ha trovato accademici, scienziati e giornalisti che stanno effettuando delle ricerche su progetti che potenzialmente rappresentano una violazione del Computer Fraud and Abuse Act. Ad esempio The Intercept vuole fare un'analisi di massa dei siti web utilizzando diversi profili di cookie, per vedere se le persone sono trattate in modo diverso in base al colore della pelle o alla loro ricchezza. Questo tipo di discriminazione è contro la legge. Ma anche mascherare la propria identità, creare account multipli e raccogliere automaticamente dati, pubblicamente disponibili, dai siti web (il cosiddetto web scraping) costituisce una violazione dei termini di servizio dei siti, rischiando quindi di essere perseguiti per il Computer Fraud and Abuse Act.

Questa è un'eccellente strategia, ed è molto simile a quello che ci accingiamo a seguire noi dell'Electronic Frontier Foundation. Abbiamo un grande annuncio che faremo tra un paio di settimane per quanto riguarda una causa sulla Sezione 1201 del DMCA, che considera reato bypassare i DRM anche per compiere ricerche legali nell'ambito della sicurezza.

Dobbiamo arrivare ad un punto in cui aggirare i DRM è la normalità e dimostrare che non c'è stata alcuna apocalisse per le aziende—ma che invece sono ancora in affari e riescono a fare profitti, e che le persone godono di una maggiore libertà e che non ci sono limitazioni per quanto riguarda la divulgazione di falle nei sistemi di sicurezza (perché ricordiamoci che il DMCA rende un reato la rivelazione delle vulnerabilità di sicurezza). Solo a quel punto avremmo raggiunto un ottimo risultato ed i giudici della Corte Suprema saranno più propensi a giudicare in nostro favore, altrimenti potremmo sembrare persone senza contatto con la realtà.

Pubblicità

"Gli Stati Uniti possono essere considerati il Paziente Zero in un'epidemia di pessime leggi."

Il motivo per cui l'Unione Europea ha la sua versione del DMCA è perché è incluso nei trattati di commercio. Questo è valido non solo per l'Europa, infatti anche Canada, Australia e Russia hanno le loro versioni del DMCA. Inoltre, è presente anche in altri trattati come il TTIP, l'ACTA ed il TPP. Gli Stati Uniti possono essere considerati il Paziente Zero in un'epidemia di pessime leggi.

Se l'Europa ed altri paesi riescono a sbarazzarsi a loro volta di leggi riguardanti i DRM riusciremo quindi ad aprirci un varco verso la vittoria, perché quando i rappresentanti commerciali degli Stati Uniti andranno a dire alla Corte "non si può abrogare l'anti-aggiramento previsto dal DMCA perché l'abbiamo incluso nel nostro impegno di licenza commerciale", a quel punto tali obblighi saranno già lettera morta perché gli altri paesi avranno modificato le loro leggi.

Insieme all'azione dell'ACLU, che sta attaccando la legittimità del Computer Fraud and Abuse Act, vogliamo abbattere i due principali strumenti della legge che vietano di comprendere, controllare e riconfigurare la tecnologia che, oramai, è così presente nella vita delle persone al punto da avere potere di vita o di morte su di loro.

Cosa pensi dei servizi di streaming che stanno cambiando il rapporto con la proprietà dei prodotti digitali per gli utenti, parlo quindi di Netflix, Spotify, ma anche degli App Store in generale, alla luce anche della recente notizia riguardo un abbonamento a lungo termine per le app nello Store della Apple?

Pubblicità

Si tratta di una questione complessa, a cominciare dalla proprietà musicale e dal suo funzionamento. Nel migliore dei mondi possibili i servizi di streaming di musica eliminerebbero la necessità dei DRM: la gente non si iscrive ai servizi di musica in streaming per ascoltare soltanto undici canzoni—Vogliono che il servizio consigli loro su cosa ascoltare, attingendo dalla gigantesca offerta di canzoni disponibili.

Si potrebbe davvero costruire un business senza alcun bisogno di DRM e sarebbe perfetto. È necessario però capire come rendere la contabilizzazione per questo tipo di business più trasparente: non è che i servizi di streaming non pagano un sacco di soldi per la musica, ma li pagano alle etichette che danno indietro agli autori quasi nulla.

Patches are the new stickers. This Duane O'BrienJanuary 22, 2016

Per quanto riguarda gli app store, il problema è il DMCA e l'articolo 6 della Direttiva dell'Unione Europea sul Copyright, perché se per esempio Walmart, Carrefour, o altre grandi aziende, decidessero di entrare nel business delle app e non ci fossero queste leggi di mezzo, potrebbero semplicemente distribuire gratis presso i loro punti vendita dei dispositivi con cui effettuare il jailbreak degli smartphone e permettere così l'accesso ad app store alternativi. È il proprio telefono, si dovrebbe essere in grado di scegliere da quale store comprare le app.

La ragione per cui Apple ed altri sono in grado di avere questo comportamento anti-competitivo e monopolistico è perché la legge rende un crimine installare un app store alternativo. Ce ne sono diversi, ma sono nascosti nell'ombra: Cydia ad esempio. Se fossero pubblicamente disponibili dovrebbero affrontare terribili cause e nessuno è disposto a finanziarti se c'è la possibilità che la tua azienda subisca azioni legali.

Pubblicità

Non si vede mai in giro un autobus con sul fianco un cartello che pubblicizza "Installa Cydia oggi, fai il jailbreak al tuo iPhone". Se il DMCA fosse eliminato, questi modelli di pagamento che costringono gli sviluppatori a piegarsi al modello di pagamento di Apple scomparirebbero. Apple dovrebbe affrontare la concorrenza. La concorrenza non risolve sempre tutto, ma sicuramente risolve questo tipo di situazioni abbastanza facilmente.

Volgendo lo sguardo al mondo degli artisti e dell'arte in generale, credi che ci sia bisogno di cambiare il suo modello economico? Tu stesso hai pubblicato diversi libri sotto la licenza Creative Commons (CC), suggerisci ad altri autori di seguire le tue orme?

Il fatto di utilizzare CC non c'entra nulla con il problema del business di cui parlavamo prima. Ciò che determina il successo di un libro è quasi interamente dovuto alla sua popolarità, quindi pubblicarlo come edizione CC non c'entra nulla nel mio caso. I CC hanno molti altri aspetti importanti, nel mio caso è per prendere una netta posizione e dire che quando i lettori sono minacciati per aver fatto delle cose normali, naturali, come vendere i loro libri usati o prestarli ad amici o qualsiasi altra cosa e la causa legale in cui incorrono è fatta in mio nome, puoi pur star certo che io non lo approvo. Non voglio essere costretto in una lotta politica che credo sia una minaccia esistenziale per l'umanità. Con i CC si evita di trasformare internet, il nostro sistema nervoso, in qualcosa che è banalmente soggetto a censura e controllo.

Pubblicità

Immaginiamo di fare un salto avanti di 10 anni e che Apollo 1201 abbia eliminato completamente i DRM, pensi che ci sarebbero casi in cui sarebbe comunque necessario un qualche tipo di utilizzo dei DRM o tecnologia simile, pur tenendo a mente che i DRM si sono già rivelati inefficaci come hai detto prima?

Per rispondere a questa domanda abbiamo bisogno di fare un passo indietro e chiederci cosa fanno i DRM.

Il compito di crittografi e ricercatori di sicurezza informatica sarebbe molto più facile se si potessero produrre computer su cui far girare software ritenuti "buoni". Quando ci si trova in una situazione di rapporto conflittuale con un avversario, e quindi in questo caso quando non si sa se ci si può fidare della persona che utilizzerà il computer, non c'è alcun modo tecnicamente efficiente per progettare anche un marginale controllo su quello che gli utenti installeranno. Il massimo che si può ottenere è far sì che ci sia un sistema per cui se i propri concorrenti lanciano dei servizi simili ai nostri, questi vengano considerati illegali in quanto c'è il divieto, per legge, di installare il loro software sul computer.

"Questo è ciò che fa il DRM: rende possibile controllare che la concorrenza faccia solo ciò che è legale."

Questo è ciò che fa il DRM: rende possibile controllare che la concorrenza faccia solo ciò che è legale. Quindi prendiamo ad esempio la battaglia che stiamo avendo con il World Wide Web Consortium (W3C). Il web è sempre più client, sta perdendo quote di mercato a scapito delle app. Per questo il W3C sta perdendo il suo significato ed è più disperato che mai, e quindi è abbastanza debole da accettare richieste che sarebbero state storicamente inconcepibili per un ente open standard quale è. Così ora stanno standardizzando i DRM, ma sappiamo tutti che sono terribili. Loro ci hanno detto che il nostro problema è con la legge che implementa i DRM, non la tecnologia in sè e che loro non si occupano di modificare le leggi, quindi non possono fare nulla. Con la EFF abbiamo quindi proposto che tutte le aziende che si iscrivono al W3C devono firmare un accordo secondo il quale non useranno il DMCA contro chi fa ricerca per la sicurezza informatica e contro chiunque altro rimuova i DRM per scopi legali. Ma loro si sono opposti come se gli avessimo chiesto di mettere la mano in un frullatore.

Pubblicità

Tutte le aziende che sono iscritte al W3C vogliono usare il DMCA per bloccare chi compie azioni che altrimenti sarebbero legali. Naturalmente sappiamo che chi pirata lo farà comunque—Non importa quanto sicuro sia il DRM, i pirati romperanno comunque il lucchetto digitale, perché è crittograficamente incoerente dire che si vuole dare un computer ad un avversario in cui sono nascoste le chiavi di sicurezza e sperare che non le troverà mai. Quello che possono fare, però, è introdurre una minima traccia di DRM nel prodotto e poi richiamare la legge per punire le persone che stanno agendo legalmente.

Quindi quando chiedi "c'è una situazione in cui il DRM sarebbe una soluzione fantastica?" È come chiedere "C'è una situazione in cui una macchina antigravità sarebbe fantastica?" Certo che ci sarebbe, ma non ne abbiamo mai vista una. Ciò che noi chiamiamo la macchina antigravità è in realtà una corda elastica con cui leghiamo la gente per gettarsi giù dai ponti. Non è antigravità, perchè se la corda si rompe la gente si fa male. Io sono completamente a favore delle macchine antigravità, ma non a favore di gettare la gente giù dai ponti con dei cavi elastici legati intorno alle caviglie.

Se solo potessimo fare dei computer che eseguono unicamente dei software selezionati, sarei completamente a favore. Ma non sappiamo come fare quel computer, sappiamo solo produrre computer Turing equivalenti che possono quindi eseguire tutti i programmi.

Pubblicità

Hai recentemente scritto un'articolo per il Guardian in cui dici: "Voi non siete solamente il vostro portafoglio". L'ho trovato davvero stimolante, ma allo stesso tempo descrive una minaccia enorme. Non sono sicuro che i consumatori siano pienamente consapevoli del loro diritto a lamentarsi verso le aziende da cui comprano i prodotti, cosa ne pensi?

Uno dei motivi per cui ho scritto quell'articolo è che quando si criticano aziende come Apple, Disney, Microsoft, le persone sentono questa intensa e strana fedeltà al brand che è completamente fuori luogo. Queste società vedono gli esseri umani come una scomoda flora intestinale.

C'è un'analogia con il 1° Emendamento: se dici qualcosa di terribile su internet e qualcuno te lo fa notare, una risposta veramente stupida è "ma non era illegale per me dirlo, il 1° Emendamento protegge il mio diritto a dirlo." Ora, se la cosa migliore che si può dire per difendere un'idea è che in realtà non è illegale, ecco, è un'argomentazione abbastanza fragile.

Il punto che ho cercato di spiegare in quell'articolo è proprio questo: bisogna cercare di ampliare il dibattito al di là della questione dell'essere costretti ad acquistare da un'azienda, per entrare nel merito del comportamento dell'azienda stessa, se il suo operato è legale. In questo modo si può evitare di finire fuori dai binari della discussione per colpa di chi ti dice cose senza senso tipo "chi ti ha costretto a comprare il loro prodotto?"

Pubblicità

Recentemente Google e Facebook hanno abbracciato la filosofia open source pubblicando apertamente le loro librerie software per intelligenza artificiale (AI) ed il machine learning (ML), Google con TensorFlow e SyntaxNet, e Facebook con Torch. Allo stesso modo OpenAI, l'organizzazione non profit di ricerca supportata da Elon Musk, sta lavorando nella direzione dell'open source. Sei favorevole a questa maggiore apertura? Pensi che possa essere pericoloso rendere il codice delle intelligenze artificiali accessibile a tutti?

No, non mi preoccupa la loro scelta verso l'open source. La sicurezza attraverso la segretezza non funziona mai: puoi pur star certo che un malintenzionato sufficientemente motivato finirà per scoprire qualunque cosa tu stia cercando di nascondere. La segretezza, piuttosto, impedisce un'attenta e pronta analisi dei rischi, mettendo in pericolo chi utilizza quei codici. Già l'essere a conoscenza dei difetti di un sistema è di per sé una misura di sicurezza importante.

Il parallelo qui è con una vettura che ha i freni rotti. Se si sa che una macchina ha i freni che non funzionano, è possibile comunque guidare fino al meccanico andando lentamente ed aumentando la distanza di sicurezza con le macchine che ci precedono. Ma se si è all'oscuro del guasto, l'unico modo per scoprirlo è schiantandosi a tutta velocità giù da un dirupo.

Nel contesto del machine learning è emozionante vedere questa apertura. Quello che manca, però, nelle discussioni è che il modello prodotto è di scarsa utilità se non si ha accesso anche ai dati utilizzati per il training del modello stesso: i dati di training rivelano se i modelli prodotti dal ML sono validi, se le fondamenta del modello sono solide.

Pubblicità

Un buon esempio è quello della Casa Bianca che ha intenzione di seguire un programma pilota per usare il machine learning per prevedere quali carcerati sono a basso rischio di commettere nuovamente reati e quindi rilasciarli. Sono molto a favore di questo progetto: gli Stati Uniti hanno un serio problema di incarcerazioni. Gli Stati Uniti mettono in carcere più persone di qualsiasi altro paese nella storia del mondo, sia che si consideri il numero totale di incarcerati che in rapporto alla sua popolazione. Qualsiasi cosa possiamo fare per riportare la gente fuori di prigione è una grandissima idea. Purtroppo i dati di training utilizzati per valutare chi è a basso rischio sono di per sé molto poco obiettivi.

Apollo 1201: A mission to eradicate DRM in our lifetime. - Trey Hunner22 gennaio 2016

Supponiamo che quasi tutti quelli in carcere non meritino di essere lì. In realtà è una buona supposizione perché se tutti i criminali sono in carcere ci si aspetta che il tasso di criminalità scenda. Confrontando quindi il tasso di criminalità con quello di altri paesi, o si pensa che ad esempio la Danimarca menta sul suo tasso di criminalità oppure si deve credere che essere americano renda le persone più propense a commettere dei crimini—Oppure che quasi tutti quelli in carcere dovrebbero essere rimessi in libertà.

Siccome l'evento meno improbabile tra questi è che la maggior parte delle persone nelle carceri americane non deve stare lì, se si rilasciasse, a caso, il 40% delle persone detenute in prigione, basandoci sul presupposto che non dovrebbero essere lì dentro, ci si aspetterebbe quindi che il tasso di criminalità non salga comunque.

Con questo programma pilota hanno prodotto i modelli di machine learning basandosi sui loro dati di recidiva, perciò chi viene arrestato nuovamente è perché aveva una probabilità più alta. C'è però un'altra possibilità, la polizia ha compiuto un'azione mirata nei suoi confronti. D'altronde, si può trovare il crimine solo dove lo si cerca.

Se essere nero in America significa che la tua auto viene fermata più spesso di altri, che sei perquisito più spesso dalla polizia e che se si viene arrestato è molto più probabile che la pena sia più grave, al modello di ML sembrerà quindi che i neri hanno più probabilità di commettere i reati rispetto ai bianchi.

Perciò si potrebbe avere questo sistema in cui il modello di machine learning prevede che se si lasciano in libertà tutti i bianchi, i tassi di criminalità non salgono ma questo sarebbe vero comunque perché, se si lasciasse andare chiunque, i tassi di criminalità non salirebbero ugualmente dal momento che tutte quelle persone non dovrebbero già essere lì dentro.

Ma in questo modo si implementa un sistema razzista, non obiettivo e lo si perpetua. Se si ha solo accesso al modello e non ai dati che hanno prodotto il modello, allora non si può valutare la sua correttezza. Se poi questo modello è usato sempre più spesso per prendere decisioni che colpiscono profondamente la vita delle persone, ad esempio regolare il loro accesso al credito, uscire di prigione, ottenere un lavoro, adottare un bambino, io sono felice della pubblicazione del modello, pubblicarlo è sempre meglio che non fare nulla, ma non è sufficiente.

C'è una sezione nella General Data Protection Regulation dell'Unione Europea che tratta delle decisioni automatizzate e si discute del diritto a chiedere spiegazioni al riguardo degli algoritmi, cosa ne pensi?

Credo sia una buona iniziativa, ma ancora si parla purtroppo solo di algoritmi. Non c'è nessun problema con gli algoritmi, sono ben compresi dalla comunità scientifica, il problema è con la raccolta di dati pessimi e non obiettivi. Non c'è bisogno di essere un massimo esperto di dati per sapere che il campionamento non rappresentativo produce un pessimo risultato statistico.

"La sicurezza attraverso la segretezza non funziona mai: puoi pur star certo che un malintenzionato sufficientemente motivato finirà per scoprire qualunque cosa tu stia cercando di nascondere."

Patrick Ball, ricercatore presso il Human Rights Data Analysis Group, in cui si occupano di estrapolazione statistica di dati per processi nei tribunali di diritti umani e crimini di guerra, fa questo esempio: immaginate di avere questo insieme di dati, dove si misura la gente chiedendo loro l'altezza ed il peso. Con questi dati si produce un modello che prevede il peso di una persona in base alla sua altezza. A quel punto, prendendo persone a caso dalla popolazione il modello assegna loro un peso in base alla loro altezza. Se si dispone di un campione veramente rappresentativo per costruire il modello, probabilmente si potrebbero ottenere buoni risultati. Ma se tutte le persone considerate nel campione iniziale sono bambini di 8 anni, il modello produce risultati completamente sbagliati quando applicato alla popolazione mondiale.

Credo che dare alle persone il diritto di chiedere spiegazioni sul sistema che li ha classificati sia un importante primo passo, ma dobbiamo cominciare a parlare di raccolta dei dati distorta e dati poco rappresentativi perché allora tutti quelli che si occupano di scienza capiranno subito qual è il problema in questione e non sembreranno dei mistici quando parlano di machine learning.

Vorrei spostarmi verso degli scenari più distopici, tu sei scettico riguardo l'Internet of Things (IoT) ed i suoi video pubblicitari a causa delle falle nella sicurezza che potrebbero essere persino agevolate dalla presenza dei DRM, come già visto. Pensi che l'IoT assomiglierà sempre di più ad una sorta di Panopticon?

Questo è un serio pericolo. Immagina uno Stato tecnocratico che stabilisce ciò che è giusto e ciò che è sbagliato, e che utilizza l'IoT per raccogliere in tempo reale dati molto personali delle persone e li usa contro di loro. Ma quello che potrebbe essere ben peggiore è uno Stato che diffonde una IoT imperfetta, cosa che è di gran lunga più probabile rispetto ad una IoT priva di difetti, che poi, arbitrariamente, viene utilizzata per punirci, senza alcuna possibilità di chiedere spiegazioni al riguardo, sulla base di conclusioni tratte dai modelli di machine learning prodotti con pessimi dati provenienti dalla IoT.

Nel frattempo, qualsiasi raccapricciante voyeur, criminale o ladro d'identità potrebbe approfittare delle backdoor che il governo ha richiesto di installare nei dispositivi ed utilizzarli per danneggiare le persone in ogni modo possibile ed immaginabile. Ogni sistema di sicurezza contro i criminali sarebbe considerato anche contro il governo e quindi vietato. A quel punto avremmo la nostra vita distrutta da un lato dai governi e dall'altro da criminali. Questo è quello di cui ci dovremmo preoccupare.