UMANO, TROPPO POCO UMANO
I progressi dell'auto autonoma pongono interrogativi in termini di viabilità e sicurezza. Andrea Cerroni, professore dell'Università Bicocca di Milano, ha evidenziato criticità e difetti di un sistema che, per quanto evoluto, non è ancora in grado di guidare come una persona in carne e ossa
28/01/2018
Secondo molti, il futuro della mobilità passa per l’auto autonoma. E non si tratta di un futuro lontano, neppure di orizzonti fantascientifici: come ha spiegato Andrea Cerroni, professore associato presso il dipartimento di sociologia e ricerche sociali dell’Università Bicocca di Milano, quello dell’auto autonoma è un cambiamento che sta avvenendo ora. “Siamo molto avanti nella sperimentazione. Non si tratta di semplici spot: c’è tutto un filone di ricerca molto sviluppato nel settore”, ha osservato mostrando alcuni video di auto senza conducente che circolano già nelle nostre strade.
Ormai non ci si chiede più se l’auto autonoma diventerà realtà. La vera domanda è: quanto controllo saremmo disposti a cedere a una macchina? “Si va da un livello zero – ha spiegato Cerroni – a un livello di full automation, con sistemi che escludono totalmente l’intervento del guidatore, anche in situazioni di emergenza”. La questione non è banale. E probabilmente, secondo Cerroni, “dominerà il dibattito su innovazione e mobilità per i prossimi dieci anni”.
UNA MACCHINA NON GESTICOLA
L’idea è senza dubbio allettante: in futuro sarà possibile sedersi nella propria vettura e lasciare che sia la macchina a portarci dove desideriamo. Eppure, lo scenario nasconde la possibilità che una situazione banale si trasformi in un vero e proprio stallo. “Che cosa succede se quattro macchine sopraggiungono contemporaneamente a un incrocio non regolato da segnaletica?”, si è chiesto Cerroni. Per noi umani la risposta è semplice: basta un cenno, un gesto d’intesa, qualche parola urlata a finestrino abbassato per sbrogliare la matassa e garantire il proseguimento della viabilità. Ma per un’automobile? Una macchina, almeno per il momento, non può gesticolare: l’estrema capacità di elaborazione di dati può infrangersi banalmente contro uno scenario non previsto ma, al tempo stesso, probabile. “Rottura di un processo logico e apertura a comportamenti reali: è questa la vera sfida dell’auto autonoma”, ha commentato Cerroni.
ISTINTO E SOPRAVVIVENZA
C’è poi tutto il fronte aperto della sicurezza. Un tema caldo, visto che nel maggio del 2016 si è verificato il primo incidente mortale provocato da un’auto autonoma. “Il software della vettura ha scambiato il bianco della carrozzeria di un tir per il colore del cielo, non attivando il sistema di frenata che avrebbe potuto evitare la collisione”, ha spiegato Cerroni. Incidenti come questo mettono in dubbio la capacità delle macchine di riprodurre un comportamento umano che appare spesso dettato da una certa dose di irrazionalità: abitudini e luoghi comuni sono elementi che ancora non possono essere insegnati a un computer. E una macchina autonoma, checché ne dica la terza legge della robotica, non dispone dell’istinto di sopravvivenza.
© RIPRODUZIONE RISERVATA