March 22, 2018
12:08 p.m.
Cari tutti mi sembrerebbe un messaggio di responsabilità politica sociale e etica Mariella b Il 22/03/2018 11:36, armeo@mail.nexacenter.org ha scritto: > estremizzo la posizione di Giacomo: nell'attesa di un ulteriore > progresso che renda i veicoli automatici più sicuri di quelli a guida > umana (che potrebbe arrivare in un paio di anni) vietiamo l'impiego di > veicoli automatici. > > Raf > > > Il 22/03/2018 10:50, Giacomo Tesio ha scritto: >> Il 22 marzo 2018 10:05, Diego Giorio <dgiorio@hotmail.com> ha scritto: >>> Non so se quel che si legge è vero, perchè in questi giorni si è >>> sentito di >>> tutto, ma sembra che in realtà l'autista umano sia stato avvisato dai >>> sensori, e nemmeno lui abbia potuto agire in tempo. >> A quanto avevo letto, l'auto non ha frenato. >> A quanto vedo, l'auto non ha nemmeno deviato nonostante la corsia >> opposta fosse perfettamente libera. >> >> Definire il passeggero "autista" e' MOLTO DISCUTIBILE in questo caso, >> ma anche fosse, un auto a guida autonoma non dovrebbe affidarsi ai >> riflessi di un essere umano, non credi? >> >>> D'altra parte se uno si >>> butta sotto un mezzo in movimento non c'è tecnologia che tenga: una >>> frenata >>> non può avvenire in tempo zero. >> Il pedone aveva attraversato l'intera corsia opposta, c'era tempo di >> - suonare il clacson >> - effettuare segnalazioni luminose >> - rallentare >> - deviare >> >> Ricordiamoci che non stiamo parlando di un cervello umano, ma di >> processori: non mi sono mai interessato di questo tipo di simulazioni, >> sono abbastanza confidente che calcolare una traiettoria per evitare >> il pedone data la sua velocità e direzione sarebbe stato piuttosto >> rapido. >> >> Se poi hanno messo un simulatore scritto in JavaScript a guidare la >> macchina, allora bisogna arrestare ANCHE gli ingegneri! >> >>> Peraltro, se fosse accertata la responsabilità del pedone, il problema >>> penale non si porrebbe. >> Obbiezione interessante. Probabilmente hai ragione: bisogna aggiornare >> l'ordinamento. >> >> Se disponiamo di una tecnologia che può evitare una morte in caso di >> errore umano, non possiamo dire che il suo fallimento non costituisce >> reato solo perché l'errore umano più evidente è della vittima. >> >> L'errore umano principale infatti sta nella progettazione del veicolo. >> >> In particolare nella interfaccia utente destinata al passeggero, che >> appunto, ha smesso di sentirsi autista dell'auto (come evidente dalla >> parte finale del filmato). >> La stessa definizione di "auto a guida autonoma", o "self driving car" >> (o forse persino "intelligenza artificiale") ha causato questo enorme >> (e facilmente evitabile) errore di progettazione. >> >>> Però è evidente che deve nascere una forma nuova di >>> diritto (non ho ancora finito di leggere "the law of robots" del prof. >>> Pollicino). E spero che includa un principio di innocenza fino a prova >>> contraria anche per gli automi! >> Questo temo sia impossibile. >> Non sono MAI gli automi ad essere innocenti o colpevoli: la >> responsabilità va sempre ricondotta alle persone che li hanno messi in >> circolazione. >> >> I principio di innocenza fino a prova contraria, non si applica alle >> cose. >> >> >> Vi e poi un problema pratico: come dimostrare che la macchina ha >> sbagliato (in uno qualsiasi dei suoi componenti) e dunque che la >> responsabilità penale sussiste? >> >> Chi paga il lavoro degli esperti necessari ad analizzare ogni singolo >> componente e ogni riga di codice per verificare l'assenza di errori? >> Infatti, in via precauzionale, dovremmo interrompere la produzione ma >> al contempo non potremmo mettere Uber a verificare il proprio prodotto >> ne persone pagate da Uber. >> >> Avremmo bisogno di esperti indipendenti da queste multinazionali per >> valutare il loro lavoro (e ci potrebbero volere anni). >> >> Nella remota ipotesi che non trovassero errori nel sistema, chi >> facciamo pagare? la famiglia della vittima? lo stato? >> >> >> In realtà comunque gli errori ci sono di sicuro, quanto meno a >> livello software. >> >> Perché chiunque sviluppa software sa che l'errore non è una condizione >> occasionale che capita a persone che per il resto non sbagliano. >> L'errore è condizione normale della operatività umana. E questa è >> particolarmente evidente nel software, per la natura stessa >> dell'artefatto e per la scarsa evoluzione dell'informatica. >> >> >> Dunque, per gli automi, dovremo adottare un principio di colpevolezza >> dei costruttori fino a prova contraria. >> >> >> >> Giacomo >> _______________________________________________ >> nexa mailing list >> nexa@server-nexa.polito.it >> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa -- Prof.ssa Mariella Berra Dipartimento di Culture, Politica e Società Università di Torino tel.+390116702606