March 22, 2018
7:02 p.m.
Ma secondo voi non c'è un problema strutturale di user interface e user experience se un passeggero al posto di guida non si percepisce come un autista? Questo problema (piuttosto ovvio) è risolvibile? O è piuttosto in diretta contraddizione con il concetto stesso di auto a guida autonoma? https://medium.com/@DonotInnovate/73-mind-blowing-implications-of-a-driverless-future-58d23d1f338d Giacomo Il Gio 22 Mar 2018 19:49 Roberto Dolci <rob.dolci@aizoon.us> ha scritto: > Perfettamente d'accordo Alberto. Peraltro il "contenuto" di un automobile > continua ad aumentare a parita' di Prezzo (scontato per inflazione): quindi > dalle cinture di sicurezza e poggiatesta in poi, non e' che il costo sia > stato passato sulle spalle dei consumatori, ma assorbito dallo sviluppo > tecnologico. > > -----Original Message----- > From: Alberto Cammozzo <ac+nexa@zeromx.net> > Sent: Thursday, March 22, 2018 2:45 PM > To: Roberto Dolci <rob.dolci@aizoon.us>; nexa@server-nexa.polito.it > Subject: Re: [nexa] Video dell'incidente mortale causato dalla AI di Uber > > Grazie Roberto, > metti giustamente in evidenza che la dotazione del veicolo influisce sulla > sua intelligenza in relazione all'ambiente e su quanto vi si adatta. > > Quello che voglio mettere in evidenza io è che mentre non si può > pretendere che un umano veda di notte, si deve pretendere che una vettura > autonoma lo faccia, visto che può tecnicamente farlo con la dotazione > adatta. > Altrimenti non dovrà avere licenza di circolare di notte. > > Essendo in gioco non solo la sicurezza del conducente (è relativamente > affar suo) ma soprattutto quella pubblica (che è affare del decisore > pubblico), a me pare che la "dotazione adatta" non possa essere decisa dal > costo dei sensori e dal budget di chi acquista l'auto, ma debba essere > oggetto di regolazione. > Credo che chi vuole circolare autonomamente di notte (o a los Angeles, o > sulla neve,...) deve avere la dotazione che (ragionevolmente) offre la > massima reazione possibile tecnicamente in relazione all'ambiente, non solo > quella che offrirebbe un guidatore umano (medio). > In caso contrario privilegiamo un profitto privato a discapito > dell'incolumità pubblica. > [Il che comunque non sarebbe una novità... Basta saperlo.] > > Alberto > > > On 22/03/2018 19:23, Roberto Dolci wrote: > > Tutte le auto ora in test (Volvo, Google, GM, Mercedes) hanno IR > installato, e non solo. Occorre tenere presente pero' che una Mercedes ha > $2800 (al costo) di sensori in piu' della Volvo XC90: la prima guida > agevolmente a LosAngeles, la seconda no perche' non ci son line di mezzeria. > > > > https://techcrunch.com/2018/03/19/heres-how-ubers-self-driving-cars-ar > > e-supposed-to-detect-pedestrians/ > > https://www.wired.com/2017/01/volvos-cars-now-spot-moose-hit-brakes/ > > > > -----Original Message----- > > From: nexa <nexa-bounces@server-nexa.polito.it> On Behalf Of Alberto > > Cammozzo > > Sent: Thursday, March 22, 2018 1:28 PM > > To: nexa@server-nexa.polito.it > > Subject: Re: [nexa] Video dell'incidente mortale causato dalla AI di > > Uber > > > > Certo che si può pretendere che la macchina superi l'uomo se le si > affida un veicolo sulla pubblica via. Anzi lo si deve richiedere. > > > > La telecamera evidentemente opera nello spettro visibile, cioè replica i > limiti della visione umana. > > Una telecamera a infrarossi, per non dire un radar, avrebbe certamente > evitato l'incidente e salvato la vita dell'assai incauto pedone. > > > > Un veicolo automatico dotato di visione I/R oltre che ottica avrebbe > potuto superare la capacità di reazione del guidatore umano. > > Non lo ha fatto perché è stato progettato per non farlo, o meglio non è > stato progettato per farlo, pur essendo tale progetto possibile e non a un > costo proibitivo. > > Quel veicolo, abilitato alla guida autonoma notturna, si limita a > replicare i limiti della visione notturna umana pur potendo essere > disegnato per rendere tale guida più sicura. > > > > Non dotare il veicolo anche di una videocamera IR è certamente una > scelta di progetto, che definirei "insecure by design", almeno nella guida > notturna. > > > > Per questo motivo non escludo la responsabilità, certamente morale e per > omissione, del progettista o del committente. > > > > > > Alberto > > > > > > On 22/03/2018 13:12, Roberto Dolci wrote: > >> Il filmato e' visionabile da due punti di vista: telecamera su strada e > su guidatore (che mostra come questi stia guardando in basso su smartphone > o tablet). E' chiaro che la vittima e' vestita di scuro/nero, attraversa > una strada ad alta percorrenza ben fuori da strisce pedonali o semafori. > Non si puo' pretendere che un algoritmo superi Darwin. > >> > >> -----Original Message----- > >> From: nexa <nexa-bounces@server-nexa.polito.it> On Behalf Of Mariella > >> Berra > >> Sent: Thursday, March 22, 2018 8:09 AM > >> To: nexa@server-nexa.polito.it > >> Subject: Re: [nexa] Video dell'incidente mortale causato dalla AI di > >> Uber > >> > >> Cari tutti mi sembrerebbe un messaggio di responsabilità politica > >> sociale e etica > >> > >> Mariella b > >> > >> > >> Il 22/03/2018 11:36, armeo@mail.nexacenter.org ha scritto: > >>> estremizzo la posizione di Giacomo: nell'attesa di un ulteriore > >>> progresso che renda i veicoli automatici più sicuri di quelli a > >>> guida umana (che potrebbe arrivare in un paio di anni) vietiamo > >>> l'impiego di veicoli automatici. > >>> > >>> Raf > >>> > >>> > >>> Il 22/03/2018 10:50, Giacomo Tesio ha scritto: > >>>> Il 22 marzo 2018 10:05, Diego Giorio <dgiorio@hotmail.com> ha > scritto: > >>>>> Non so se quel che si legge è vero, perchè in questi giorni si è > >>>>> sentito di tutto, ma sembra che in realtà l'autista umano sia > >>>>> stato avvisato dai sensori, e nemmeno lui abbia potuto agire in > tempo. > >>>> A quanto avevo letto, l'auto non ha frenato. > >>>> A quanto vedo, l'auto non ha nemmeno deviato nonostante la corsia > >>>> opposta fosse perfettamente libera. > >>>> > >>>> Definire il passeggero "autista" e' MOLTO DISCUTIBILE in questo > >>>> caso, ma anche fosse, un auto a guida autonoma non dovrebbe > >>>> affidarsi ai riflessi di un essere umano, non credi? > >>>> > >>>>> D'altra parte se uno si > >>>>> butta sotto un mezzo in movimento non c'è tecnologia che tenga: > >>>>> una frenata non può avvenire in tempo zero. > >>>> Il pedone aveva attraversato l'intera corsia opposta, c'era tempo > >>>> di > >>>> - suonare il clacson > >>>> - effettuare segnalazioni luminose > >>>> - rallentare > >>>> - deviare > >>>> > >>>> Ricordiamoci che non stiamo parlando di un cervello umano, ma di > >>>> processori: non mi sono mai interessato di questo tipo di > >>>> simulazioni, sono abbastanza confidente che calcolare una > >>>> traiettoria per evitare il pedone data la sua velocità e direzione > >>>> sarebbe stato piuttosto rapido. > >>>> > >>>> Se poi hanno messo un simulatore scritto in JavaScript a guidare la > >>>> macchina, allora bisogna arrestare ANCHE gli ingegneri! > >>>> > >>>>> Peraltro, se fosse accertata la responsabilità del pedone, il > >>>>> problema penale non si porrebbe. > >>>> Obbiezione interessante. Probabilmente hai ragione: bisogna > >>>> aggiornare l'ordinamento. > >>>> > >>>> Se disponiamo di una tecnologia che può evitare una morte in caso > >>>> di errore umano, non possiamo dire che il suo fallimento non > >>>> costituisce reato solo perché l'errore umano più evidente è della > vittima. > >>>> > >>>> L'errore umano principale infatti sta nella progettazione del veicolo. > >>>> > >>>> In particolare nella interfaccia utente destinata al passeggero, > >>>> che appunto, ha smesso di sentirsi autista dell'auto (come evidente > >>>> dalla parte finale del filmato). > >>>> La stessa definizione di "auto a guida autonoma", o "self driving car" > >>>> (o forse persino "intelligenza artificiale") ha causato questo > >>>> enorme (e facilmente evitabile) errore di progettazione. > >>>> > >>>>> Però è evidente che deve nascere una forma nuova di diritto (non > >>>>> ho ancora finito di leggere "the law of robots" del prof. > >>>>> Pollicino). E spero che includa un principio di innocenza fino a > >>>>> prova contraria anche per gli automi! > >>>> Questo temo sia impossibile. > >>>> Non sono MAI gli automi ad essere innocenti o colpevoli: la > >>>> responsabilità va sempre ricondotta alle persone che li hanno messi > >>>> in circolazione. > >>>> > >>>> I principio di innocenza fino a prova contraria, non si applica > >>>> alle cose. > >>>> > >>>> > >>>> Vi e poi un problema pratico: come dimostrare che la macchina ha > >>>> sbagliato (in uno qualsiasi dei suoi componenti) e dunque che la > >>>> responsabilità penale sussiste? > >>>> > >>>> Chi paga il lavoro degli esperti necessari ad analizzare ogni > >>>> singolo componente e ogni riga di codice per verificare l'assenza di > errori? > >>>> Infatti, in via precauzionale, dovremmo interrompere la produzione > >>>> ma al contempo non potremmo mettere Uber a verificare il proprio > >>>> prodotto ne persone pagate da Uber. > >>>> > >>>> Avremmo bisogno di esperti indipendenti da queste multinazionali > >>>> per valutare il loro lavoro (e ci potrebbero volere anni). > >>>> > >>>> Nella remota ipotesi che non trovassero errori nel sistema, chi > >>>> facciamo pagare? la famiglia della vittima? lo stato? > >>>> > >>>> > >>>> In realtà comunque gli errori ci sono di sicuro, quanto meno a > >>>> livello software. > >>>> > >>>> Perché chiunque sviluppa software sa che l'errore non è una > >>>> condizione occasionale che capita a persone che per il resto non > sbagliano. > >>>> L'errore è condizione normale della operatività umana. E questa è > >>>> particolarmente evidente nel software, per la natura stessa > >>>> dell'artefatto e per la scarsa evoluzione dell'informatica. > >>>> > >>>> > >>>> Dunque, per gli automi, dovremo adottare un principio di > >>>> colpevolezza dei costruttori fino a prova contraria. > >>>> > >>>> > >>>> > >>>> Giacomo > >>>> _______________________________________________ > >>>> nexa mailing list > >>>> nexa@server-nexa.polito.it > >>>> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > >>> _______________________________________________ > >>> nexa mailing list > >>> nexa@server-nexa.polito.it > >>> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > >> -- > >> Prof.ssa Mariella Berra > >> Dipartimento di Culture, Politica e Società Università di Torino > >> tel.+390116702606 > >> > >> _______________________________________________ > >> nexa mailing list > >> nexa@server-nexa.polito.it > >> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > >> _______________________________________________ > >> nexa mailing list > >> nexa@server-nexa.polito.it > >> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > > > > _______________________________________________ > > nexa mailing list > > nexa@server-nexa.polito.it > > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > > > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >