March 23, 2018
5 p.m.
Su ArsTecnica si sostiene che il video estratto dall'auto dalla polizia di Tempe non rappresenti la reale visibilità del luogo, anche per telecamere a basso costo: https://arstechnica.com/cars/2018/03/police-chief-said-uber-victim-came-from-the-shadows-dont-believe-it/ Giacomo Il giorno 22 marzo 2018 19:23, Roberto Dolci <rob.dolci@aizoon.us> ha scritto: > Tutte le auto ora in test (Volvo, Google, GM, Mercedes) hanno IR > installato, e non solo. Occorre tenere presente pero' che una Mercedes ha > $2800 (al costo) di sensori in piu' della Volvo XC90: la prima guida > agevolmente a LosAngeles, la seconda no perche' non ci son line di mezzeria. > > https://techcrunch.com/2018/03/19/heres-how-ubers-self- > driving-cars-are-supposed-to-detect-pedestrians/ > https://www.wired.com/2017/01/volvos-cars-now-spot-moose-hit-brakes/ > > -----Original Message----- > From: nexa <nexa-bounces@server-nexa.polito.it> On Behalf Of Alberto > Cammozzo > Sent: Thursday, March 22, 2018 1:28 PM > To: nexa@server-nexa.polito.it > Subject: Re: [nexa] Video dell'incidente mortale causato dalla AI di Uber > > Certo che si può pretendere che la macchina superi l'uomo se le si affida > un veicolo sulla pubblica via. Anzi lo si deve richiedere. > > La telecamera evidentemente opera nello spettro visibile, cioè replica i > limiti della visione umana. > Una telecamera a infrarossi, per non dire un radar, avrebbe certamente > evitato l'incidente e salvato la vita dell'assai incauto pedone. > > Un veicolo automatico dotato di visione I/R oltre che ottica avrebbe > potuto superare la capacità di reazione del guidatore umano. > Non lo ha fatto perché è stato progettato per non farlo, o meglio non è > stato progettato per farlo, pur essendo tale progetto possibile e non a un > costo proibitivo. > Quel veicolo, abilitato alla guida autonoma notturna, si limita a > replicare i limiti della visione notturna umana pur potendo essere > disegnato per rendere tale guida più sicura. > > Non dotare il veicolo anche di una videocamera IR è certamente una scelta > di progetto, che definirei "insecure by design", almeno nella guida > notturna. > > Per questo motivo non escludo la responsabilità, certamente morale e per > omissione, del progettista o del committente. > > > Alberto > > > On 22/03/2018 13:12, Roberto Dolci wrote: > > Il filmato e' visionabile da due punti di vista: telecamera su strada e > su guidatore (che mostra come questi stia guardando in basso su smartphone > o tablet). E' chiaro che la vittima e' vestita di scuro/nero, attraversa > una strada ad alta percorrenza ben fuori da strisce pedonali o semafori. > Non si puo' pretendere che un algoritmo superi Darwin. > > > > -----Original Message----- > > From: nexa <nexa-bounces@server-nexa.polito.it> On Behalf Of Mariella > > Berra > > Sent: Thursday, March 22, 2018 8:09 AM > > To: nexa@server-nexa.polito.it > > Subject: Re: [nexa] Video dell'incidente mortale causato dalla AI di > > Uber > > > > Cari tutti mi sembrerebbe un messaggio di responsabilità politica > > sociale e etica > > > > Mariella b > > > > > > Il 22/03/2018 11:36, armeo@mail.nexacenter.org ha scritto: > >> estremizzo la posizione di Giacomo: nell'attesa di un ulteriore > >> progresso che renda i veicoli automatici più sicuri di quelli a guida > >> umana (che potrebbe arrivare in un paio di anni) vietiamo l'impiego > >> di veicoli automatici. > >> > >> Raf > >> > >> > >> Il 22/03/2018 10:50, Giacomo Tesio ha scritto: > >>> Il 22 marzo 2018 10:05, Diego Giorio <dgiorio@hotmail.com> ha > scritto: > >>>> Non so se quel che si legge è vero, perchè in questi giorni si è > >>>> sentito di tutto, ma sembra che in realtà l'autista umano sia stato > >>>> avvisato dai sensori, e nemmeno lui abbia potuto agire in tempo. > >>> A quanto avevo letto, l'auto non ha frenato. > >>> A quanto vedo, l'auto non ha nemmeno deviato nonostante la corsia > >>> opposta fosse perfettamente libera. > >>> > >>> Definire il passeggero "autista" e' MOLTO DISCUTIBILE in questo > >>> caso, ma anche fosse, un auto a guida autonoma non dovrebbe > >>> affidarsi ai riflessi di un essere umano, non credi? > >>> > >>>> D'altra parte se uno si > >>>> butta sotto un mezzo in movimento non c'è tecnologia che tenga: una > >>>> frenata non può avvenire in tempo zero. > >>> Il pedone aveva attraversato l'intera corsia opposta, c'era tempo di > >>> - suonare il clacson > >>> - effettuare segnalazioni luminose > >>> - rallentare > >>> - deviare > >>> > >>> Ricordiamoci che non stiamo parlando di un cervello umano, ma di > >>> processori: non mi sono mai interessato di questo tipo di > >>> simulazioni, sono abbastanza confidente che calcolare una > >>> traiettoria per evitare il pedone data la sua velocità e direzione > >>> sarebbe stato piuttosto rapido. > >>> > >>> Se poi hanno messo un simulatore scritto in JavaScript a guidare la > >>> macchina, allora bisogna arrestare ANCHE gli ingegneri! > >>> > >>>> Peraltro, se fosse accertata la responsabilità del pedone, il > >>>> problema penale non si porrebbe. > >>> Obbiezione interessante. Probabilmente hai ragione: bisogna > >>> aggiornare l'ordinamento. > >>> > >>> Se disponiamo di una tecnologia che può evitare una morte in caso di > >>> errore umano, non possiamo dire che il suo fallimento non > >>> costituisce reato solo perché l'errore umano più evidente è della > vittima. > >>> > >>> L'errore umano principale infatti sta nella progettazione del veicolo. > >>> > >>> In particolare nella interfaccia utente destinata al passeggero, che > >>> appunto, ha smesso di sentirsi autista dell'auto (come evidente > >>> dalla parte finale del filmato). > >>> La stessa definizione di "auto a guida autonoma", o "self driving car" > >>> (o forse persino "intelligenza artificiale") ha causato questo > >>> enorme (e facilmente evitabile) errore di progettazione. > >>> > >>>> Però è evidente che deve nascere una forma nuova di diritto (non ho > >>>> ancora finito di leggere "the law of robots" del prof. > >>>> Pollicino). E spero che includa un principio di innocenza fino a > >>>> prova contraria anche per gli automi! > >>> Questo temo sia impossibile. > >>> Non sono MAI gli automi ad essere innocenti o colpevoli: la > >>> responsabilità va sempre ricondotta alle persone che li hanno messi > >>> in circolazione. > >>> > >>> I principio di innocenza fino a prova contraria, non si applica alle > >>> cose. > >>> > >>> > >>> Vi e poi un problema pratico: come dimostrare che la macchina ha > >>> sbagliato (in uno qualsiasi dei suoi componenti) e dunque che la > >>> responsabilità penale sussiste? > >>> > >>> Chi paga il lavoro degli esperti necessari ad analizzare ogni > >>> singolo componente e ogni riga di codice per verificare l'assenza di > errori? > >>> Infatti, in via precauzionale, dovremmo interrompere la produzione > >>> ma al contempo non potremmo mettere Uber a verificare il proprio > >>> prodotto ne persone pagate da Uber. > >>> > >>> Avremmo bisogno di esperti indipendenti da queste multinazionali per > >>> valutare il loro lavoro (e ci potrebbero volere anni). > >>> > >>> Nella remota ipotesi che non trovassero errori nel sistema, chi > >>> facciamo pagare? la famiglia della vittima? lo stato? > >>> > >>> > >>> In realtà comunque gli errori ci sono di sicuro, quanto meno a > >>> livello software. > >>> > >>> Perché chiunque sviluppa software sa che l'errore non è una > >>> condizione occasionale che capita a persone che per il resto non > sbagliano. > >>> L'errore è condizione normale della operatività umana. E questa è > >>> particolarmente evidente nel software, per la natura stessa > >>> dell'artefatto e per la scarsa evoluzione dell'informatica. > >>> > >>> > >>> Dunque, per gli automi, dovremo adottare un principio di > >>> colpevolezza dei costruttori fino a prova contraria. > >>> > >>> > >>> > >>> Giacomo > >>> _______________________________________________ > >>> nexa mailing list > >>> nexa@server-nexa.polito.it > >>> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > >> _______________________________________________ > >> nexa mailing list > >> nexa@server-nexa.polito.it > >> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > > -- > > Prof.ssa Mariella Berra > > Dipartimento di Culture, Politica e Società Università di Torino > > tel.+390116702606 > > > > _______________________________________________ > > nexa mailing list > > nexa@server-nexa.polito.it > > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > > _______________________________________________ > > nexa mailing list > > nexa@server-nexa.polito.it > > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > > > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >