March 22, 2018
12:12 p.m.
Il filmato e' visionabile da due punti di vista: telecamera su strada e su guidatore (che mostra come questi stia guardando in basso su smartphone o tablet). E' chiaro che la vittima e' vestita di scuro/nero, attraversa una strada ad alta percorrenza ben fuori da strisce pedonali o semafori. Non si puo' pretendere che un algoritmo superi Darwin. -----Original Message----- From: nexa <nexa-bounces@server-nexa.polito.it> On Behalf Of Mariella Berra Sent: Thursday, March 22, 2018 8:09 AM To: nexa@server-nexa.polito.it Subject: Re: [nexa] Video dell'incidente mortale causato dalla AI di Uber Cari tutti mi sembrerebbe un messaggio di responsabilità politica sociale e etica Mariella b Il 22/03/2018 11:36, armeo@mail.nexacenter.org ha scritto: > estremizzo la posizione di Giacomo: nell'attesa di un ulteriore > progresso che renda i veicoli automatici più sicuri di quelli a guida > umana (che potrebbe arrivare in un paio di anni) vietiamo l'impiego di > veicoli automatici. > > Raf > > > Il 22/03/2018 10:50, Giacomo Tesio ha scritto: >> Il 22 marzo 2018 10:05, Diego Giorio <dgiorio@hotmail.com> ha scritto: >>> Non so se quel che si legge è vero, perchè in questi giorni si è >>> sentito di tutto, ma sembra che in realtà l'autista umano sia stato >>> avvisato dai sensori, e nemmeno lui abbia potuto agire in tempo. >> A quanto avevo letto, l'auto non ha frenato. >> A quanto vedo, l'auto non ha nemmeno deviato nonostante la corsia >> opposta fosse perfettamente libera. >> >> Definire il passeggero "autista" e' MOLTO DISCUTIBILE in questo caso, >> ma anche fosse, un auto a guida autonoma non dovrebbe affidarsi ai >> riflessi di un essere umano, non credi? >> >>> D'altra parte se uno si >>> butta sotto un mezzo in movimento non c'è tecnologia che tenga: una >>> frenata non può avvenire in tempo zero. >> Il pedone aveva attraversato l'intera corsia opposta, c'era tempo di >> - suonare il clacson >> - effettuare segnalazioni luminose >> - rallentare >> - deviare >> >> Ricordiamoci che non stiamo parlando di un cervello umano, ma di >> processori: non mi sono mai interessato di questo tipo di >> simulazioni, sono abbastanza confidente che calcolare una traiettoria >> per evitare il pedone data la sua velocità e direzione sarebbe stato >> piuttosto rapido. >> >> Se poi hanno messo un simulatore scritto in JavaScript a guidare la >> macchina, allora bisogna arrestare ANCHE gli ingegneri! >> >>> Peraltro, se fosse accertata la responsabilità del pedone, il >>> problema penale non si porrebbe. >> Obbiezione interessante. Probabilmente hai ragione: bisogna >> aggiornare l'ordinamento. >> >> Se disponiamo di una tecnologia che può evitare una morte in caso di >> errore umano, non possiamo dire che il suo fallimento non costituisce >> reato solo perché l'errore umano più evidente è della vittima. >> >> L'errore umano principale infatti sta nella progettazione del veicolo. >> >> In particolare nella interfaccia utente destinata al passeggero, che >> appunto, ha smesso di sentirsi autista dell'auto (come evidente dalla >> parte finale del filmato). >> La stessa definizione di "auto a guida autonoma", o "self driving car" >> (o forse persino "intelligenza artificiale") ha causato questo enorme >> (e facilmente evitabile) errore di progettazione. >> >>> Però è evidente che deve nascere una forma nuova di diritto (non ho >>> ancora finito di leggere "the law of robots" del prof. >>> Pollicino). E spero che includa un principio di innocenza fino a >>> prova contraria anche per gli automi! >> Questo temo sia impossibile. >> Non sono MAI gli automi ad essere innocenti o colpevoli: la >> responsabilità va sempre ricondotta alle persone che li hanno messi >> in circolazione. >> >> I principio di innocenza fino a prova contraria, non si applica alle >> cose. >> >> >> Vi e poi un problema pratico: come dimostrare che la macchina ha >> sbagliato (in uno qualsiasi dei suoi componenti) e dunque che la >> responsabilità penale sussiste? >> >> Chi paga il lavoro degli esperti necessari ad analizzare ogni singolo >> componente e ogni riga di codice per verificare l'assenza di errori? >> Infatti, in via precauzionale, dovremmo interrompere la produzione ma >> al contempo non potremmo mettere Uber a verificare il proprio >> prodotto ne persone pagate da Uber. >> >> Avremmo bisogno di esperti indipendenti da queste multinazionali per >> valutare il loro lavoro (e ci potrebbero volere anni). >> >> Nella remota ipotesi che non trovassero errori nel sistema, chi >> facciamo pagare? la famiglia della vittima? lo stato? >> >> >> In realtà comunque gli errori ci sono di sicuro, quanto meno a >> livello software. >> >> Perché chiunque sviluppa software sa che l'errore non è una >> condizione occasionale che capita a persone che per il resto non sbagliano. >> L'errore è condizione normale della operatività umana. E questa è >> particolarmente evidente nel software, per la natura stessa >> dell'artefatto e per la scarsa evoluzione dell'informatica. >> >> >> Dunque, per gli automi, dovremo adottare un principio di colpevolezza >> dei costruttori fino a prova contraria. >> >> >> >> Giacomo >> _______________________________________________ >> nexa mailing list >> nexa@server-nexa.polito.it >> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa -- Prof.ssa Mariella Berra Dipartimento di Culture, Politica e Società Università di Torino tel.+390116702606 _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa