Tech by VICE

Etica dell'auto senza pilota

Se non aspettate altro che l'avvento delle Google Driverless Car per poter guidare da sbronzi, avete sbagliato tutto.

di Federico Martelli
15 luglio 2015, 2:27pm

Se non aspettate altro che l'avvento delle Google Driverless Car vi sollevi dalla responsabilità di guidare sbronzi, se credete che l'unica questione morale posta da questi mezzi sarebbe quella di dare soddisfazione ai tassisti rubando lavoro agli autisti di Uber, vi sbagliate: le auto senza pilota impongono riflessioni etiche che vi faranno passare la voglia di scherzare durante i festini nel retro delle robot-limo affittate per fare gli splendidi.


Mettete assieme il dilemma del carrello di Foot e le leggi della robotica di Asimov e applicatele al caso delle auto che si guidano da sole: otterrete quel genere di scenari che causano notti insonni ai programmatori, procurano più di un grattacapo ai legislatori e modificano radicalmente le prospettive di business degli assicuratori.

Scenario #1. Vi state rilassando sul sedile posteriore della vostra driverless car quando, improvvisamente, un altro veicolo vi taglia la strada: quale procedura di sicurezza automatica preferireste? Una deviazione seguita da una frenata brusca con l'inconveniente di mettere a repentaglio la vostra incolumità oppure qualsiasi manovra che possa tutelarvi anche a discapito degli altri?

"Ci auguriamo che abbiate gradito la corsa". Arnold Schwarzenegger alle prese con Johnny Cab, tassista robotico, nel film "Atto di forza" del 1990

Evitiamo per essere più sintetici di soffermarci sulla questione spinosa che pone un prodotto di vostra proprietà con la facoltà di scegliere di sacrificarvi sotto determinate circostanze

Scenario #2. Complichiamo le cose: l'auto che vi taglia la strada trasporta un'intera famiglia, bambini compresi. Voi, al contrario, siete soli: chi ha più diritto di uscirne sano e salvo?

Il principio utilitarista secondo cui la scelta migliore è quella di salvaguardare il benessere del maggior numero di individui possibili può costituire una linea guida soddisfacente in base a cui compiere delle scelte?

Scenario #3. Andiamo ancora più a fondo nel ragionamento: l'altra auto potrebbe essere occupata da cinque criminali in fuga (esiste anche una variante del dilemma del carrello che coinvolge Hitler, ma evitiamola, meglio non tirare in ballo quel dittatore in particolare se non si desidera rovinare una qualsiasi discussione…) a bordo del vostro veicolo, invece, siede un luminare della medicina che ha appena scoperto la cura definitiva per il cancro.

Chi meriterebbe di sopravvivere? A chi affidare l'autorità di prendere questa decisione? Secondo quali principi andrebbe presa? Vi sentireste a vostro agio se il valore della vostra vita fosse stabilito da grandi compagnie come Google o Apple?

"Agisci nella maniera in cui quello che fai possa diventare una legge universale"

Sono sufficienti questi tre esempi per capire che la questione può arricchirsi di varianti e dettagli per generare un numero di combinazioni infinito come gli scenari imprevisti che possono presentarsi a un pilota. Situazioni in cui legge e senso etico (a volte semplice buon senso) divergono.

Da un lato l'applicazione scrupolosa delle regole del codice stradale può causare una quantità incredibile di disagi alla circolazione, dall'altro, concedendo ai robot una certa dose di libertà nell'infrangere le regole, non possiamo essere sicuri che le loro scelte possano essere paragonabili alle decisioni avventate prese a fin di bene dai piloti umani, rendendo di fatto imperdonabile il lavoro a mente fredda dei programmatori.

L'ideale sarebbe trovare un equivalente all'imperativo categorico di Kant: "agisci nella maniera in cui quello che fai possa diventare una legge universale" traducibile in linguaggio di programmazione.

Nella vita quotidiana di diverse città nel mondo sono presenti servizi di trasporto pubblico senza conducenti. Le automobili prodotte da vent'anni a questa parte includono sistemi che effettuano scelte autonomamente e tecnologie dall'ABS al LDW, contribuiscono ogni giorno, per quanto possibile, a evitare tragedie.

Le fasi, descritte per gradi, dei benefici di un traffico automobilistico regolato da algoritmi computerizzati. Via

Non è necessario che le driverless car siano completamente sicure, basterebbe che raggiungessero un livello di sicurezza superiore anche solo di poco a quello dei piloti umani. Eppure ho la sensazione che dati quali: la riduzione del numero di morti per incidenti stradali, il risparmio economico sommato ai benefici ecologici derivanti dalla condivisione dei veicoli, il traffico regolato da algoritmi, persino la soluzione definitiva all'annoso problema del parcheggio (un'auto senza pilota potrebbe sostare in qualsiasi spazio disponibile, anche in mezzo alla carreggiata e liberare il passaggio nel momento in cui diventi effettivamente di intralcio) non sarebbero sufficienti a convincere sino in fondo il cittadino medio della loro convenienza.

C'è qualcosa di intrinsecamente inquietante nella visione di un'auto che si guida da sola. Sarebbe curioso raccogliere dati analoghi a quelli della uncanny valley per gli androidi, ma applicati alle auto senza pilota.

Se è vero che le innovazioni graduali vengono accolte più favorevolmente di quelle drastiche, perché non immettere sul mercato modelli che rassicurino per la loro scarsa somiglianza alle automobili comuni, (sogno mega-vagoni a forma di parallelepipedo super accessoriati, sfarzosi salotti itineranti con sauna e idromassaggio...mi sentite amici della Mercedes che volete puntare sul mercato di lusso?).

Oppure, molto più semplicemente i tipi di Google dovrebbero ripensare la loro propaganda: chi se la compra un'auto sicura ma non bella?