Home In Evidenza Auto a guida autonoma: il dilemma dell’etica

Auto a guida autonoma: il dilemma dell’etica

0 797

Gli incidenti sulle strade del futuro, quando a scegliere saranno i computer di bordo

guida autonomaCon l’avvento e la diffusione delle auto a guida autonoma, il robot al volante si troverà a dover scegliere “il male minore” in svariate situazioni di emergenza: l’auto a guida autonoma dovrà salvaguardare i due anziani che attraversano la strada oppure rischiare di colpire la mamma che cammina con la bambina in braccio sul marciapiede? O ancora: deciderà di andare fuori strada e rischiare la vita dei tre adulti a bordo o frenare ma probabilmente colpire i due adolescenti che stanno attraversando anche se per loro il semaforo è rosso?

I ricercatori del MIT – Massachusetts Institute of Technology hanno ideato la “Moral Machine”, una sorta di “videogame” on line che prova ad analizzare i comportamenti umani. Il “gioco” prevede che gli utenti diano il proprio giudizio su varie situazioni stradali nelle quali qualcuno rischia la vita, passeggeri sull’auto a guida autonoma o pedoni che attraversano la strada. La domanda è: “cosa dovrebbe fare in questo caso l’auto a guida autonoma?”.

I dati raccolti saranno molto preziosi agli ingegneri per sviluppare il software delle vetture a guida autonoma che, in una situazione potenzialmente mortale, sapranno come comportarsi. È ovvio che, per essere accettate dall’opinione pubblica, le auto a guida autonoma dovranno in qualche modo “imparare a ragionare” secondo i parametri morali e sociali più accreditati, ma sarà sufficiente?

guida autonomaUn ulteriore nodo da sciogliere l’ha infatti indicato un team di ricercatori della Toulouse School of Economics, secondo cui questo tipo di situazioni saranno inevitabili con l’aumento della diffusione delle auto a guida auotonoma. “Si tratta di una sfida formidabile per definire gli algoritmi che guideranno gli AVs (veicoli autonomi) di fronte a questi dilemmi morali“, hanno scritto i ricercatori, che nel loro documento hanno intervistato diverse centinaia di persone e quando hanno presentato ai partecipanti una serie di scenari (tra cui quello di scegliere se far morire il pilota o un gruppo di persone) le risposte sono state scontate: tutti si sono detti disponibili a sacrificare la vita del conducente per salvare il gruppo, a patto di non trovarsi loro stessi al volante…

Quindi la questione potrebbe diventare: comprereste mai una macchina a guida autonoma che in qualche riga del suo algoritmo abbia scritto di uccidere il “pilota-passeggero” per salvare dei pedoni? La risposta è facile, ma il concetto di “male minore” è alla base del funzionamento della self driving car che viaggia seguendo un codice di comportamento ben preciso.

In Germania si stanno comunque portando avanti, decidendo intanto di stabilire venti principi etici per marcare i confini oltre i quali i programmatori non dovranno mai spingersi quando si tratterà di scrivere il codice delle auto a guida autonoma e dei robot del futuro. Li ha messi nero su bianco la Commissione etica sulla guida autonoma e connessa voluta dal Ministro dei trasporti Alexander Dobrindt. Tra i quattordici membri anche un teologo, quattro professori di etica, uno di informatica, un ex giudice costituzionale.

Queste sono le prime linee guida sul tema con una forte impronta etica“, racconta Christoph Luetge, professore di Business Ethics al Politecnico di Monaco e membro della Commissione. Ovviamente al centro c’è sempre la sicurezza: l’automazione non ha senso se non salva vite, considerando che sulle strade muoiono ogni anno un milione e 250mila persone e nel 93 per cento dei casi l’errore umano svolge un ruolo essenziale nel causarli. Non solo. Si stabilisce il primato della libera scelta e questo si traduce nel rifiuto dei mezzi a guida autonoma totale, il cosiddetto “Livello 5″ delle Google Car prive di volante e pedali. E ancora: il software di un autobus, auto o aereo, non potrà decidere chi sacrificare fra pedoni, guidatore e passeggeri nelle collisioni inevitabili scegliendo in base al genere, all’età o al numero.

E riguardo le responsabilità oggettive, legali e assicurative, la commissione chiarisce che cambieranno volta per volta, a seconda che l’incidente sia stato provocato da una rottura di un componente dell’auto a guida autonoma, da un errore del software mentre guidava o da quello del conducente.

Ma questa non è la sola iniziativa ufficiale sui temi dell’automazione: nel 2016 la commissione giuridica del Parlamento europeo, a febbraio, e a novembre la Direzione generale per i trasporti della Commissione Ue (Dg Move), avevano trattato l’argomento da punti di vista diversi. E negli Stati Uniti a settembre anche il Dipartimento dei trasporti ha stilato delle linee guida, per evitare il caos normativo.

Fonti: Repubblica Motori – Vincenzo Borgomeo, Silvia Bonaventura, Jaime D’Alessandro

NOTIZIE CORRELATE