Moral Machine, la guida autonoma e il problema etico

Come dovrà comportarsi un'auto a guida autonoma quando si troverà ad affrontare l'inevitabile
Moral Machine, la guida autonoma e il problema etico
4 min
Alessandro Vai

ROMA - Il futuro dell’automobile passa per la guida autonoma. Prima o dopo le nostre vite inizieranno a essere simili con quelle che abbiamo visto nei film di fantascienza. Ci sarà da vedere, però, se la trama sarà più affine con quella di “Ritorno al futuro” o con quella di Dredd, il poliziotto-giudice interpretato da Sylvester Stallone che arresta e condanna istantaneamente. Potrebbe essere uno scherzo ma non lo è, perché le “driverless car” si scontreranno con dilemmi etici di un certo peso. Posto che a lungo termine saranno più sicure di quelle tradizionali, proprio per la loro capacità di ridurre al minimo l’errore, che cosa succederà quando questo errore, umano o no, si presenterà?

ETA’ - In altre parole, come dovrà comportarsi un’auto a guida autonoma quando si troverà ad affrontare l’inevitabile? Quando i suoi sensori e il suo software avranno capito che non è possibile uscire da una situazione di pericolo, che scelte dovrà fare? Facciamo un esempio: se un anziano obeso attraversa fuori dalle strisce pedonali o con il semaforo rosso e la driverless car ha a bordo una madre con due figli piccoli, a quel punto che cosa deve fare? Rischiare una manovra di emergenza per salvare il pedone mettendo a repentaglio i passeggeri, oppure sacrificare il malcapitato e tutelare gli adulti di domani?

DECESSI - Se l’esempio vi sembra crudele, sappiate che ogni anno nel mondo muoiono circa 1,25 milioni di persone – automobilisti, motociclisti, ciclisti, pedoni e via dicendo -  a causa di incidenti stradali. Incidenti causati nella maggior parte dei casi da errori umani e quindi quasi del tutto casuali, anche e soprattutto nella dinamica. Quando un umano si trova in una situazione di emergenza reagisce d’istinto, non fa valutazioni razionali. La legge solitamente prevede pene per chi causa incidenti guidando in condizioni non idonee o scorrettamente, ma in una situazione come quella descritta prima, un guidatore sobrio, lucido e rispettoso del codice non subirebbe conseguenze per avere ucciso l’anziano obeso. Sarebbe accettata come “fatalità”.

LEGGE - Ma con le auto e i software che le governano, invece, sarà tutto diverso perché senza emozioni in gioco una scelta sarà sempre possibile. E qui si entra nel campo dell’etica e della morale. Dovendo scegliere chi salvare e chi tutelare, quali sono i criteri? Età, sesso, condizione fisica, rilevanza sociale, rispetto delle regole…la lista è lunga e le preferenze potrebbero essere molto soggettive. I legislatori di tutto il mondo, dunque, si troveranno ad affrontare un grande problema, cioè scegliere quali persone sono più sacrificabili delle altre e quindi di fatto a “gestire” circa 1 milione di morti ogni anno. sarà pure un numero puramente teorico, visto che comprende anche i Paesi a basso tasso di sviluppo dove la guida autonoma arriverà molto più tardi, ma fa comunque molto effetto.

MIT - Nel frattempo, al Massachusetts Institute of Technology hanno messo a punto una specie di sondaggio chiamato “Moral Machine” dove si chiede di indicare le preferenze di comportamento di un’auto a guida autonoma in una serie di situazioni “aut aut”. Insomma una specie di “Chi butti giù dalla torre?” che fa molto riflettere. Vi consigliamo di partecipare e poi, soprattutto, di leggere i risultati del vostro pensiero che potrete anche confrontare con quello degli altri. 


© RIPRODUZIONE RISERVATA

Commenti