Tech by VICE

L’Unione Europea vuole diventare il faro per l’etica digitale nel mondo

Abbiamo chiesto al Garante europeo della protezione dei dati Giovanni Buttarelli perché la dignità umana deve essere al centro del dibattito nel mondo tecnologico.

di Riccardo Coluccini
19 febbraio 2018, 3:27pm

Immagine: Shutterstock / Composizione: Giulia Trincardi

Negli ultimi anni è diventato evidente quanto la protezione dei dati personali nella sfera digitale abbia assunto un ruolo centrale nel dibattito globale sui diritti civili e l’Unione Europea, non senza passi falsi quando si parla di governance digitale, si è sempre posta in prima linea in questa discussione.

Il 25 maggio prossimo entrerà in vigore il Regolamento generale sulla protezione dei dati personali (GDPR), una serie di norme che posizioneranno l’Europa all’avanguardia nella protezione dei dati dei suoi cittadini e saranno d’esempio per tutte le altre nazioni.

Non è un caso che il GDPR venga considerato da molti un apripista importante per il dibattito sul rapporto di governance tra etica e privacy digitale, il Garante europeo per la protezione dei dati personali Giovanni Buttarelli ha infatti indicato già dal 2015 la necessità di iniziare una discussione anche per quanto riguarda l’aspetto etico della raccolta dei dati digitali.

Lo scorso 25 gennaio, l’Ethics Advisory Groupun gruppo di ricercatori istituito dal Garante Buttarelli nel dicembre 2015 con lo scopo di valutare la dimensione etica della protezione dei dati personali — ha pubblicato il suo report conclusivo.

Nel documento vengono affrontate le implicazioni dell’influenza dei nuovi algoritmi di intelligenza artificiale sui grandi database di dati, sottolineando come gli utenti siano diventati dei soggetti digitali che devono sottostare sempre più spesso a decisioni prese da algoritmi che vengono raffinati sulla base dei dati che costantemente produciamo — come nel caso dei sistemi giudiziari.

In un’epoca in cui i nostri profili digitali stanno assumendo un’importanza sempre maggiore nella nostra manifestazione nel mondo reale — come in Cina, dove un nuovo sistema di credit rating promette di dare un voto a una quantità sconfinata di azioni quotidiane di ogni singolo cittadino —, dobbiamo chiederci quali siano le linee ed i limiti da tracciare per far sì che i valori fondamentali riconosciuti agli esseri umani siano rispettati. “Proprio come c'è un limite a ciò che può essere globalizzato nell'era della globalizzazione, c'è un limite intrinseco a ciò che può essere digitalizzato nell'era digitale,” scrivono gli esperti nel report.

Oltre alle norme, come quelle incluse nel GDPR, è quindi necessario introdurre un nuovo vocabolario etico per l’era digitale.

TECNICAMENTE FATTIBILE ≠ ETICAMENTE SOSTENIBILE

“Fino a questo momento l’etica è stata una disciplina ed un investimento di energie che ha interessato settori specifici, in particolare ma non solo il mondo della sanità. Ha avuto quindi una dimensione filosofica che non ha portato i principi etici a penetrare in maniera orizzontale,” mi ha spiegato in un’intervista telefonica Giovanni Buttarelli, il Garante europeo per la protezione dei dati personali.

Lo scopo di questo report è fornire una mappa pratica all’importanza dell’etica in ogni passo del trattamento dei dati personali online, per fare sì che le aziende del settore privato non si oppongano ad una più approfondita discussione a riguardo temendo che il dibattito possa generare nuove regole

Secondo il Garante, infatti, la preoccupazione è che gran parte degli attori di questa industria condividano in maniera superficiale questi principi etici, non comprendendo però la loro effettiva necessità. Si vuole ribadire inoltre anche il ruolo che l’etica gioca nel dibattito circa la sostenibilità di alcune attività di sorveglianza portate avanti dalle forze dell’ordine a dai reparti di intelligence. I diversi quadri regolatori e le attività delle autorità in materia di protezione dei dati personali sono rilevanti ma, sottolinea Buttarelli, “non danno tutte le risposte a ciò che è tecnicamente fattibile ma non è eticamente sostenibile.”

Un esempio eclatante di questa dissonanza è quanto avvenuto recentemente con l’app Strava, che ha pubblicato online i percorsi degli allenamenti di tutti i suoi utenti, inclusi quelli relativi ai militari stanziati in basi segrete. Dal punto di vista tecnologico, è facile raccogliere grazie ai sensori degli smartphone questi dati e pubblicarli online, ma se guardiamo sotto il profilo etico, sembra che l’azienda non si sia minimamente chiesta se fosse accettabile condividerli con il mondo intero.

“Sentiamo parlare spesso di blackbox ma questo non deve farci credere che le decisioni degli algoritmi non possano essere spiegate ma piuttosto che è molto complesso farlo.”

“Noi stiamo costruendo una società completamente diversa, in cui le nuove tecnologie danno all’etica un ruolo, una dimensione, un’importanza straordinariamente differente,” chiarisce Buttarelli. Nel report, i cambiamenti epocali introdotti dall’evolversi delle tecnologie vengono definiti come un vero e proprio nuovo “paradigma epistemico” che cambia completamente il nostro modo di conoscere il mondo.

“Ci sono veramente tanti modi di capire perché si tratta di un nuovo paradigma,” mi spiega via Skype Luciano Floridi, uno dei membri dell’Ethics Advisory Group e professore ordinario di Filosofia ed Etica dell'informazione all'Università di Oxford, “ma tre punti sono veramente importanti: il passaggio da una visione mimetica ad una poietica, l’avvento degli esperimenti in silico, e la causalità che viene reinterpretata.”

Per un lungo periodo abbiamo visto la scienza come una sorta di copia della realtà, spiega Floridi, ma dal ‘900 in poi la scienza ha cominciato sempre più a compiere un’opera di costruzione dei suoi esperimenti. “Le scienze che regolano di più la nostra vita oggi — l’informatica, l’economia, la giurisprudenza, l’architettura — sono tutte discipline che creano il loro oggetto, non lo descrivono soltanto.“

Una diretta conseguenza di questo passaggio è che tutte le ricerche che svolgiamo oggi non vengono più fatte con il mondo come oggetto d’indagine, ma sui dati relativi al mondo: parliamo quindi di simulazioni informatiche che ci permettono di sperimentare e validare teorie e soluzioni. I settori della biochimica e della bioinformatica sfruttano a pieno la possibilità di svolgere esperimenti in silico, potendo così simulare le interazioni fra gli organismi e le sostanze, senza dover creare un esperimento reale. Allo stesso modo anche gli esperimenti condotti al CERN sono principalmente effettuati sui dati e vengono sfruttati per valutare e validare i modelli dell’universo.

E questo porta “una grande dipendenza dal software, che non sempre è del tutto trasparente: sentiamo parlare spesso di blackbox ma questo non deve farci credere che le decisioni degli algoritmi non possano essere spiegate, ma piuttosto che è molto complesso farlo.”

Quando gli algoritmi di deep learning e machine learning prendono delle decisioni c’è il rischio di non poter indicare chiaramente le cause che li hanno indotti a prendere una certa scelta: di fronte ad un sistema opaco c’è il rischio che la distribuzione delle responsabilità venga compromesso. “La trasparenza e la responsabilizzazione degli algoritmi sono fra i temi più discussi al momento, tuttavia, questo non deve ridurre o attenuare le responsabilità degli attori umani,” si legge nel report.

"Dare a tutti ciò che tutti vogliono è pericolosissimo,” spiega Floridi, “è la negazione dell’etica.”

Questo nuovo paradigma modifica profondamente il modo in cui facciamo esperienza del mondo, “Noi esseri umani abbiamo acquisito sempre più una concezione digitale della nostra esistenza,” sottolinea Floridi, “e l’applicazione delle intelligenze artificiali ai big data sta diventando come un filtro, plasmando il modo in cui noi percepiamo il mondo.”

Di per sé, precisa Floridi, l’intervento dell’AI a filtrare le nostre vite non è necessariamente una cosa negativa ma piuttosto ci deve preoccupare l’attuale impiego dei rudimentali algoritmi: tendono ad ingigantire le preferenze già espresse, polarizzando ancora di più gli utenti. “Dare a tutti ciò che tutti vogliono è pericolosissimo,” spiega Floridi, “è la negazione dell’etica.”

E gli effetti delle decisioni prese dagli algoritmi vengono analizzati ampiamente all’interno del report dell’Ethics Advisory Group, sottolineando come siano una minaccia alla libertà e all’autonomia degli individui. Questi due valori, però, rientrano a loro volta all’interno di un concetto alla base del report e che viene innovativamente avvicinato alla sfera digitale come mai prima d’ora: la dignità umana.

LA DIGNITÀ UMANA NELL’INFOSFERA

“Se noi siamo obbligati ad amministrare l’intera nostra vita attraverso gli smartphone e i computer, a causa dei quali perdiamo necessariamente il controllo sulle informazioni che mettiamo in circolazione — per colpa anche di un quadro di opacità e mancanza di trasparenza — in cambio di apparenti luccicanti benefici, penso che in questo modo noi non siamo trattati esattamente come individui,” evidenzia Buttarelli.

E dello stesso parere è Floridi che ha spinto molto per inserire il concetto di dignità umana all’interno del report, “Nella dichiarazione dei diritti umani delle Nazioni Unite, la dignità umana è nel prologo, non è un diritto, è quello che dà ragione di tutti i diritti,” specifica Floridi.

Riconoscendo il nostro nuovo status di organismi informazionali, prosegue Floridi, ovvero individui che vivono di informazioni e prosperano o patiscono a seconda della qualità dell’informazione, “La privacy diventa veramente la difesa immunitaria dell’organismo informazionale che vive nell’infosfera.”

L’infosfera è un concetto che amplia quello della biosfera: non siamo più unicamente organismi biologici, concepiti solamente come materia organica, ma diventiamo parte di un ambiente più ampio che include tutti quei soggetti — naturali e artificiali — che condividono e diffondono informazioni. È per questo che ha senso parlare anche di ecologia dell’infosfera: dobbiamo cominciare a prenderci cura dell’ambiente informazionale in cui siamo immersi.

“Il diritto all’identità personale è un diritto mutante che cambia in continuazione, non si può essere vincolati alla nostra figura del passato.”

La massiccia raccolta di dati e la conseguente profilazione degli individui rischia di ridurci a semplici output dell’algoritmo, violando la nostra dignità e presentando il rischio del consolidamento di una personalità che in realtà cambia nel tempo: “il diritto all’identità personale è un diritto mutante che cambia in continuazione, non si può essere vincolati alla nostra figura del passato,” spiega Buttarelli.

Il report su questo punto è molto chiaro: “Il punto di partenza di qualsiasi riflessione etica sull'era digitale è la semplice osservazione che gli esseri umani non sono identici ai loro dati, malgrado la sempre maggior precisione con cui i profili umani possono essere modellati digitalmente.”

Con questo report, quindi, l’Europa apre definitivamente la strada ad una discussione sulla protezione dei dati personali che sfrutti un nuovo vocabolario basato sull’etica, indicando così il percorso da seguire per tutti gli altri paesi mondiali. L’era digitale richiede un’analisi preventiva dei rischi etici e una comprensione dei cambiamenti che le nuove tecnologie hanno sui valori fondamentali per l’individuo: in un’epoca in cui la concezione di essere umano è sotto attacco e rischia di essere ridotta ad un semplice puntino all’interno del calderone dei big data, la nuova etica digitale europea rappresenta inequivocabilmente un modello da seguire.