Su ArsTecnica si sostiene che il video estratto dall'auto dalla polizia di Tempe non rappresenti la reale visibilità del luogo, anche per telecamere a basso costo: https://arstechnica.com/cars/2018/03/police-chief-said-uber-victim-came-from-the-shadows-dont-believe-it/


Giacomo


Il giorno 22 marzo 2018 19:23, Roberto Dolci <rob.dolci@aizoon.us> ha scritto:
Tutte le auto ora in test (Volvo, Google, GM, Mercedes) hanno IR installato, e non solo.  Occorre tenere presente pero' che una Mercedes ha $2800 (al costo) di sensori in piu' della Volvo XC90: la prima guida agevolmente a LosAngeles, la seconda no perche' non ci son line di mezzeria.

https://techcrunch.com/2018/03/19/heres-how-ubers-self-driving-cars-are-supposed-to-detect-pedestrians/
https://www.wired.com/2017/01/volvos-cars-now-spot-moose-hit-brakes/

-----Original Message-----
From: nexa <nexa-bounces@server-nexa.polito.it> On Behalf Of Alberto Cammozzo
Sent: Thursday, March 22, 2018 1:28 PM
To: nexa@server-nexa.polito.it
Subject: Re: [nexa] Video dell'incidente mortale causato dalla AI di Uber

Certo che si può pretendere che la macchina superi l'uomo se le si affida un veicolo sulla pubblica via. Anzi lo si deve richiedere.

La telecamera evidentemente opera nello spettro visibile, cioè replica i limiti della visione umana.
Una telecamera a infrarossi, per non dire un radar, avrebbe certamente evitato l'incidente e salvato la vita dell'assai incauto pedone.

Un veicolo automatico dotato di visione I/R oltre che ottica avrebbe potuto superare la capacità di reazione del guidatore umano.
Non lo ha fatto perché è stato progettato per non farlo, o meglio non è stato progettato per farlo, pur essendo tale progetto possibile e non a un costo proibitivo.
Quel veicolo, abilitato alla guida autonoma notturna, si limita a replicare i limiti della visione notturna umana pur potendo essere disegnato per rendere tale guida più sicura.

Non dotare il veicolo anche di una videocamera IR è certamente una scelta di progetto, che definirei "insecure by design", almeno nella guida notturna.

Per questo motivo non escludo la responsabilità, certamente morale e per omissione, del progettista o del committente.


Alberto


On 22/03/2018 13:12, Roberto Dolci wrote:
> Il filmato e' visionabile da due punti di vista: telecamera su strada e su guidatore (che mostra come questi stia guardando in basso su smartphone o tablet). E' chiaro che la vittima e' vestita di scuro/nero, attraversa una strada ad alta percorrenza ben fuori da strisce pedonali o semafori.  Non si puo' pretendere che un algoritmo superi Darwin.
>
> -----Original Message-----
> From: nexa <nexa-bounces@server-nexa.polito.it> On Behalf Of Mariella
> Berra
> Sent: Thursday, March 22, 2018 8:09 AM
> To: nexa@server-nexa.polito.it
> Subject: Re: [nexa] Video dell'incidente mortale causato dalla AI di
> Uber
>
> Cari tutti mi sembrerebbe un messaggio di responsabilità politica
> sociale e etica
>
> Mariella b
>
>
> Il 22/03/2018 11:36, armeo@mail.nexacenter.org ha scritto:
>> estremizzo la posizione di Giacomo: nell'attesa di un ulteriore
>> progresso che renda i veicoli automatici più sicuri di quelli a guida
>> umana (che potrebbe arrivare in un paio di anni) vietiamo l'impiego
>> di veicoli automatici.
>>
>> Raf
>>
>>
>> Il 22/03/2018 10:50, Giacomo Tesio ha scritto:
>>>   Il 22 marzo 2018 10:05, Diego Giorio <dgiorio@hotmail.com> ha scritto:
>>>> Non so se quel che si legge è vero, perchè in questi giorni si è
>>>> sentito di tutto, ma sembra che in realtà l'autista umano sia stato
>>>> avvisato dai sensori, e nemmeno lui abbia potuto agire in tempo.
>>> A quanto avevo letto, l'auto non ha frenato.
>>> A quanto vedo, l'auto non ha nemmeno deviato nonostante la corsia
>>> opposta fosse perfettamente libera.
>>>
>>> Definire il passeggero "autista" e' MOLTO DISCUTIBILE in questo
>>> caso, ma anche fosse, un auto a guida autonoma non dovrebbe
>>> affidarsi ai riflessi di un essere umano, non credi?
>>>
>>>> D'altra parte se uno si
>>>> butta sotto un mezzo in movimento non c'è tecnologia che tenga: una
>>>> frenata non può avvenire in tempo zero.
>>> Il pedone aveva attraversato l'intera corsia opposta, c'era tempo di
>>> - suonare il clacson
>>> - effettuare segnalazioni luminose
>>> - rallentare
>>> - deviare
>>>
>>> Ricordiamoci che non stiamo parlando di un cervello umano, ma di
>>> processori: non mi sono mai interessato di questo tipo di
>>> simulazioni, sono abbastanza confidente che calcolare una
>>> traiettoria per evitare il pedone data la sua velocità e direzione
>>> sarebbe stato piuttosto rapido.
>>>
>>> Se poi hanno messo un simulatore scritto in JavaScript a guidare la
>>> macchina, allora bisogna arrestare ANCHE gli ingegneri!
>>>
>>>> Peraltro, se fosse accertata la responsabilità del pedone, il
>>>> problema penale non si porrebbe.
>>> Obbiezione interessante. Probabilmente hai ragione: bisogna
>>> aggiornare l'ordinamento.
>>>
>>> Se disponiamo di una tecnologia che può evitare una morte in caso di
>>> errore umano, non possiamo dire che il suo fallimento non
>>> costituisce reato solo perché l'errore umano più evidente è della vittima.
>>>
>>> L'errore umano principale infatti sta nella progettazione del veicolo.
>>>
>>> In particolare nella interfaccia utente destinata al passeggero, che
>>> appunto, ha smesso di sentirsi autista dell'auto (come evidente
>>> dalla parte finale del filmato).
>>> La stessa definizione di "auto a guida autonoma", o "self driving car"
>>> (o forse persino "intelligenza artificiale") ha causato questo
>>> enorme (e facilmente evitabile) errore di progettazione.
>>>
>>>> Però è evidente che deve nascere una forma nuova di diritto (non ho
>>>> ancora finito di leggere "the law of robots" del prof.
>>>> Pollicino). E spero che includa un principio di innocenza fino a
>>>> prova contraria anche per gli automi!
>>> Questo temo sia impossibile.
>>> Non sono MAI gli automi ad essere innocenti o colpevoli: la
>>> responsabilità va sempre ricondotta alle persone che li hanno messi
>>> in circolazione.
>>>
>>> I principio di innocenza fino a prova contraria, non si applica alle
>>> cose.
>>>
>>>
>>> Vi e poi un problema pratico: come dimostrare che la macchina ha
>>> sbagliato (in uno qualsiasi dei suoi componenti) e dunque che la
>>> responsabilità penale sussiste?
>>>
>>> Chi paga il lavoro degli esperti necessari ad analizzare ogni
>>> singolo componente e ogni riga di codice per verificare l'assenza di errori?
>>> Infatti, in via precauzionale, dovremmo interrompere la produzione
>>> ma al contempo non potremmo mettere Uber a verificare il proprio
>>> prodotto ne persone pagate da Uber.
>>>
>>> Avremmo bisogno di esperti indipendenti da queste multinazionali per
>>> valutare il loro lavoro (e ci potrebbero volere anni).
>>>
>>> Nella remota ipotesi che non trovassero errori nel sistema, chi
>>> facciamo pagare? la famiglia della vittima? lo stato?
>>>
>>>
>>> In realtà comunque gli errori ci sono di sicuro, quanto meno a
>>> livello software.
>>>
>>> Perché chiunque sviluppa software sa che l'errore non è una
>>> condizione occasionale che capita a persone che per il resto non sbagliano.
>>> L'errore è condizione normale della operatività umana. E questa è
>>> particolarmente evidente nel software, per la natura stessa
>>> dell'artefatto e per la scarsa evoluzione dell'informatica.
>>>
>>>
>>> Dunque, per gli automi, dovremo adottare un principio di
>>> colpevolezza dei costruttori fino a prova contraria.
>>>
>>>
>>>
>>> Giacomo
>>> _______________________________________________
>>> nexa mailing list
>>> nexa@server-nexa.polito.it
>>> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>> _______________________________________________
>> nexa mailing list
>> nexa@server-nexa.polito.it
>> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
> --
> Prof.ssa Mariella Berra
> Dipartimento di Culture, Politica e Società Università di Torino
> tel.+390116702606
>
> _______________________________________________
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
> _______________________________________________
> nexa mailing list
> nexa@server-nexa.polito.it
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa