Pubblicità
Motherboard

Tra vita e morte: come le auto driverless sceglieranno le vittime degli incidenti

L'etica dietro a un incidente a guida autonoma è molto più complicata di quanto sembri.

di Brett Frischmann e Evan Selinger
10 aprile 2018, 9:59am

Immagine: Shutterstock

Le auto a guida autonoma sono qui. Alcune di loro sono già sulle strade. Le principali case automobilistiche e i giganti della Silicon Valley chiedono con insistenza l'autorizzazione a produrle e diffonderle per trasportarci in modo sicuro ed efficiente. Alcuni dei loro modelli non includono nemmeno il volante. Ma oltre alle varie sfide, di natura tecnica e non, c'è una questione politica fondamentale che viene trascurata: chi decide in quale modo gli algoritmi di trasporto prenderanno decisioni sulla nostra vita, la morte e tutto quello che ci passa di mezzo?

L'incidente che ha coinvolto una auto driverless di Uber non sarà l'ultimo nel quale si perderà una vita umana. Infatti, non importa quante vite verranno salvate dalle auto driverless: presto o tardi si verificheranno comunque altri incidenti.

Immaginate di stare viaggiando a bordo di un'auto a guida autonoma quando, all'improvviso, degli enormi serbatoi di propano trasportati dal camion di fronte a voi cadono dal mezzo e volano nella vostra direzione. A quel punto, è necessario prendere una decisione in poche frazioni di secondo senza la possibilità di valutare le conseguenze di ogni scelta possibile. Fortunatamente, il sistema che guida la vostra auto diverless può esaminare migliaia di scenari a una velocità sovraumana. Tuttavia, come può determinare quali sono le priorità morali?

Considerate le seguenti scelte che potrebbe prendere la vostra auto:

  1. Rimanere nella sua corsia e assorbire il colpo, mettendovi nella condizione di poter essere uccisi.
  2. Cercare di salvarvi sterzando nella corsia di sinistra, però colpendo un'auto che la occupa e causando la morte dei suoi passeggeri — i quali, secondo le informazioni estratte dai big data che li riguardano, hanno diversi figli che sono ancora bambini.
  3. Cercare di salvarvi sterzando nella corsia di destra colpendo però l'auto che la occupa e causando la morte del suo unico passeggero — il quale, sempre secondo le informazioni estratte dai big data che lo riguardano, è uno scienziato molto vicino a trovare una cura per il cancro.
  4. Supponiamo che ogni persona possa acquistare un'assicurazione contro questi tipi di incidenti rari ma inevitabili e che, di conseguenza, le automobili driverless diano la priorità nella scelta di chi salvare in base alla capacità e disponibilità economiche per pagare l'assicurazione.
  5. Cercare di salvarvi adottando un principio neutrale per scegliere come, forse lanciando una moneta virtuale sterzando a destra se esce testa e a sinistra se esce croce.
  6. Non dare la priorità alla vostra vita seguendo un principio neutrale ma scegliendo casualmente tra le tre opzioni.
  7. Eseguire qualsiasi opzione che si avvicina maggiormente al vostro sistema di valori personali e alle scelte morali che avreste preso se vi foste trovati in una situazione di emergenza. Immaginiamo che quando acquistate un'auto, prendiate parte a un test di moralità per auto driverless che considera una serie di scenari d'emergenza e che il veicolo venga "programmato" con i risultati personali del test.

Non esiste un metodo per determinare quali scelte dovrebbe prendere un'auto a guida autonoma che non sia di natura etica. La scelta tra le opzioni 1-7 non dovrebbe essere vista come un problema di calcolo che può essere "risolto" da big data, da algoritmi sofisticati, dall'apprendimento automatico o da qualsiasi forma di intelligenza artificiale. Questi strumenti possono aiutare a valutare ed eseguire le varie opzioni, ma in ultima analisi, qualcuno — nello specifico degli esseri umani — deve scegliere come agire e far sì che i propri valori vengano inseriti in un software.

Chi dovrebbe avere il potere decisionale? I politici? Il mercato? Le compagnie assicurative? I manager del settore automobilistico? Gli esperti di tecnologia? I consumatori dovrebbero essere autorizzati a personalizzare il bagaglio morale delle loro automobili in modo che i loro veicoli eseguano scelte morali in linea con le loro preferenze?

Non fatevi ingannare quando le persone parlano di IA come se questa sollevasse gli esseri umani dalla necessità di prendere queste decisioni morali, un po' come se l'IA potesse necessariamente prendersi cura di tutto per noi. Certo, l'intelligenza artificiale può essere progettata per prendere decisioni in casi di emergenza, in situazione non troppo trasparenti e persino inspiegabili. Tuttavia, poiché il passaggio dai conducenti umani alle automobili con guida autonoma sposta il processo decisionale dai conducenti ai progettisti e ai programmatori, la governance resta una fase essenziale. Si tratta solo di capire quale tipo di governance adottare.

Le questioni cruciali sulle policy vanno affrontate in modo proattivo mentre i sistemi vengono progettati, realizzati e testati

Lo scenario che abbiamo descritto si basa su un vecchio dilemma filosofico chiamato problema del carrello. Nell'esperimento originale, una persona deve scegliere se azionare una leva per deviare la traiettoria di un carrello da un binario all'altro: su un binario si trovano cinque persone, sull'altro solo una. Qual'è la scelta migliore? Il MIT ne ha sviluppato una versione interattiva chiamata Moral Machine.

Non c'è da stupirsi che il problema del carrello spunti in quasi ogni discussione sui veicoli autonomi. Finora, il dibattito si è incentrato principalmente sugli incidenti mortali sollevando importanti questioni riguardo la scelta di chi salvare. C'è chi sottolinea come determinare chi deve prendere le decisioni sia una questione che vada risolta prima di fare circolare liberamente le auto autonome sulle strade. Altri, invece, sostengono che decisioni del genere riguardino casi limite e dovrebbero essere rimandate nel tempo in modo da non frenare l'innovazione. Altri ancora addirittura negano che gli scenari del problema carrello continueranno a essere influenti una volta che i sistemi intelligenti di frenata saranno integrati in ogni auto.

Le questioni cruciali di politica sociale vanno affrontate in modo proattivo durante la progettazione, la costruzione e la verifica dei sistemi. Altrimenti, i valori di chi svilupperà le tecnologie senza affrontare questi temi verranno incorporati nella tecnologia durante il suo sviluppo. Questo può essere l'obiettivo dei negazionisti che puntano a sistemi assolutamente sicuri o da chi si fa illudere in modo sincero da qualche sogno tecno-utopico. L'argomento dei casi limite diventa ragionevole se ci si concentra esclusivamente sul problema del carrello. Ma il problema del carrello cattura solo una parte ristretta per quanto importantissima dell'intero puzzle. Vanno considerati anche gli scenari che non comportano decisioni che hanno come conseguenza la vita o la morte.

Concentriamoci sugli incidenti. Le auto a guida autonoma ridurrano il numero di incidenti, ma ancora una volta, non fatevi ingannare dal richiamo del sogno che diventino perfette. Potranno ancora causare:

  • danni fisici di grande entità, come la perdita di arti, ma non la morte;
  • danni fisici di grande entità che rendono invalidi per 24 mesi;
  • danni psichici di grave entità che limitano la capacità di guidare un'automobile e costringono ad utilizzare mezzi di trasporto meno efficienti;
  • danni di grave entità al veicolo dell'interessato; o
  • danni generici e ritardi.

Immaginate che il sistema intelligente che guida la vostra auto sia fornito di un sistema che valuta i costi delle eventualità appena elencate. Ancora una volta, non esiste un metodo per decidere che non abbia anche un valore morale. Gli ingegneri integreranno l'etica negli algoritmi decisionali e nei regolamenti. Anche in questo caso, la società deve decidere come procedere in modo proattivo. Tenete presente che questo problema di governance non riguarda tanto l'attribuzione delle responsabilità, quanto il metodo per determinare i principi morali su cui si baseranno le leggi e chi dovrebbe sostenerne i costi sociali. (Naturalmente, con la transizione verso i sistemi di trasporto intelligenti che vivremo nei prossimi decenni, anche l'attribuzione di colpe e responsabilità sarà molto importante).

Ora, se mettiamo un attimo da parte la questione degli incidenti, vanno presi in considerazione molti altri costi e benefici che i sistemi di trasporto intelligenti saranno chiamati a gestire. Supponiamo che il clima provochi dei disagi alla circolazione stradale e che i sistemi intelligenti di gestione del traffico entrino in funzione. Quali aspetti dovrebbero ottimizzare? L'obiettivo dovrebbe essere ridurre al minimo la congestione o i suoi costi sociali? Forse lasciare che alcune persone attendano un po' su una strada completamente congestionata consentirebbe ad altre persone di arrivare a destinazione più rapidamente. Forse bisognerebbe dare alle persone la possibilità di pagare per ottenere una priorità maggiore, riservando ai loro veicoli un trattamento speciale? Oggi, in determinate circostanze, le auto della polizia, le ambulanze e gli autobus ricevono un trattamento speciale. Ma a parte queste eccezioni estremamente limitate, le nostre strade sono gestite senza priorità. La regola generale è chi prima arriva meglio alloggia.

In futuro, tuttavia, saremo in grado di operare identificazioni più accurate in merito alle identità, alle destinazioni e alle attività dei singoli passeggeri. Se disponeste di tutte queste informazioni, sapreste decidere chi deve viaggiare sulla corsia preferenziale e chi no? Forse una donna che si è messa in viaggio per una riunione d'affari dovrebbe avere la priorità rispetto a una madre che sta andando al saggio musicale di suo figlio. O dovrebbe essere il contrario? Le decisioni da prendere non finiscono qui. Supponiamo che solo uno dei piloti raggiunga il suo evento in tempo e l'altro arrivi troppo tardi, anche se va veloce. Il sistema di gestione intelligente del traffico deve determinare anche chi deve informare l'altra persona di restare a casa? Nel corso del tempo è prevedibile che il tipo di situazioni che portano a prendere questo tipo di decisioni si verificherà frequentemente.

La gestione del traffico è una forma di pianificazione sociale. Le decisioni considerate in ogni singola soluzione del problema del carrello presa in considerazione o di uno qualsiasi degli altri scenari che abbiamo esaminato riflettono le logiche e i principi etici su cui sono basate le tecnologie. Queste decisioni, però, si aggregano e nel tempo diventano dei modelli sociali. Quindi, non fatevi ingannare quando gli ingegneri si nascondono dietro l'efficienza tecnica e proclamano di essere liberi dalle decisioni morali. ”Io sono solo un tecnico” non è una risposta accettabile di fronte alle questione etiche. Quando i sistemi automatizzati decidono della vita, della morte e tutto ciò che ci passa di mezzo, la posta in gioco è inevitabilmente di natura morale.

Brett M. Frischmann è professore universitario di diritto, economia e commercio presso l'Università di Villanova ed Evan Selinger è professore di filosofia presso il Rochester Institute of Technology. I due hanno scritto Re-Engineering Humanity che uscirà per Cambridge University Press ad Aprile 2018.

Seguici su Facebook e Twitter.