Il filmato e' visionabile da due punti di vista: telecamera su strada e su guidatore (che mostra come questi stia guardando in basso su smartphone o tablet). E' chiaro che la vittima e' vestita di scuro/nero, attraversa una strada ad
alta percorrenza ben fuori da strisce pedonali o semafori. Non si puo' pretendere che un algoritmo superi Darwin.
-----Original Message-----
From: nexa <nexa-bounces@server-nexa.polito.it> On Behalf Of Mariella Berra
Sent: Thursday, March 22, 2018 8:09 AM
To: nexa@server-nexa.polito.it
Subject: Re: [nexa] Video dell'incidente mortale causato dalla AI di Uber
Cari tutti mi sembrerebbe un messaggio di responsabilità politica sociale e etica
Mariella b
Il 22/03/2018 11:36, armeo@mail.nexacenter.org ha scritto:
> estremizzo la posizione di Giacomo: nell'attesa di un ulteriore
> progresso che renda i veicoli automatici più sicuri di quelli a guida
> umana (che potrebbe arrivare in un paio di anni) vietiamo l'impiego di
> veicoli automatici.
>
> Raf
>
>
> Il 22/03/2018 10:50, Giacomo Tesio ha scritto:
>> Il 22 marzo 2018 10:05, Diego Giorio <dgiorio@hotmail.com> ha scritto:
>>> Non so se quel che si legge è vero, perchè in questi giorni si è
>>> sentito di tutto, ma sembra che in realtà l'autista umano sia stato
>>> avvisato dai sensori, e nemmeno lui abbia potuto agire in tempo.
>> A quanto avevo letto, l'auto non ha frenato.
>> A quanto vedo, l'auto non ha nemmeno deviato nonostante la corsia
>> opposta fosse perfettamente libera.
>>
>> Definire il passeggero "autista" e' MOLTO DISCUTIBILE in questo caso,
>> ma anche fosse, un auto a guida autonoma non dovrebbe affidarsi ai
>> riflessi di un essere umano, non credi?
>>
>>> D'altra parte se uno si
>>> butta sotto un mezzo in movimento non c'è tecnologia che tenga: una
>>> frenata non può avvenire in tempo zero.
>> Il pedone aveva attraversato l'intera corsia opposta, c'era tempo di
>> - suonare il clacson
>> - effettuare segnalazioni luminose
>> - rallentare
>> - deviare
>>
>> Ricordiamoci che non stiamo parlando di un cervello umano, ma di
>> processori: non mi sono mai interessato di questo tipo di
>> simulazioni, sono abbastanza confidente che calcolare una traiettoria
>> per evitare il pedone data la sua velocità e direzione sarebbe stato
>> piuttosto rapido.
>>
>> Se poi hanno messo un simulatore scritto in JavaScript a guidare la
>> macchina, allora bisogna arrestare ANCHE gli ingegneri!
>>
>>> Peraltro, se fosse accertata la responsabilità del pedone, il
>>> problema penale non si porrebbe.
>> Obbiezione interessante. Probabilmente hai ragione: bisogna
>> aggiornare l'ordinamento.
>>
>> Se disponiamo di una tecnologia che può evitare una morte in caso di
>> errore umano, non possiamo dire che il suo fallimento non costituisce
>> reato solo perché l'errore umano più evidente è della vittima.
>>
>> L'errore umano principale infatti sta nella progettazione del veicolo.
>>
>> In particolare nella interfaccia utente destinata al passeggero, che
>> appunto, ha smesso di sentirsi autista dell'auto (come evidente dalla
>> parte finale del filmato).
>> La stessa definizione di "auto a guida autonoma", o "self driving car"
>> (o forse persino "intelligenza artificiale") ha causato questo enorme
>> (e facilmente evitabile) errore di progettazione.
>>
>>> Però è evidente che deve nascere una forma nuova di diritto (non ho
>>> ancora finito di leggere "the law of robots" del prof.
>>> Pollicino). E spero che includa un principio di innocenza fino a
>>> prova contraria anche per gli automi!
>> Questo temo sia impossibile.
>> Non sono MAI gli automi ad essere innocenti o colpevoli: la
>> responsabilità va sempre ricondotta alle persone che li hanno messi
>> in circolazione.
>>
>> I principio di innocenza fino a prova contraria, non si applica alle
>> cose.
>>
>>
>> Vi e poi un problema pratico: come dimostrare che la macchina ha
>> sbagliato (in uno qualsiasi dei suoi componenti) e dunque che la
>> responsabilità penale sussiste?
>>
>> Chi paga il lavoro degli esperti necessari ad analizzare ogni singolo
>> componente e ogni riga di codice per verificare l'assenza di errori?
>> Infatti, in via precauzionale, dovremmo interrompere la produzione ma
>> al contempo non potremmo mettere Uber a verificare il proprio
>> prodotto ne persone pagate da Uber.
>>
>> Avremmo bisogno di esperti indipendenti da queste multinazionali per
>> valutare il loro lavoro (e ci potrebbero volere anni).
>>
>> Nella remota ipotesi che non trovassero errori nel sistema, chi
>> facciamo pagare? la famiglia della vittima? lo stato?
>>
>>
>> In realtà comunque gli errori ci sono di sicuro, quanto meno a
>> livello software.
>>
>> Perché chiunque sviluppa software sa che l'errore non è una
>> condizione occasionale che capita a persone che per il resto non sbagliano.
>> L'errore è condizione normale della operatività umana. E questa è
>> particolarmente evidente nel software, per la natura stessa
>> dell'artefatto e per la scarsa evoluzione dell'informatica.
>>
>>
>> Dunque, per gli automi, dovremo adottare un principio di colpevolezza
>> dei costruttori fino a prova contraria.
>>
>>
>>
>> Giacomo
>> _______________________________________________
>> nexa mailing list
>> nexa@server-nexa.polito.it
>>
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
|
server-nexa.polito.it
nexa -- Public list for news and information sharing of the NEXA Center for Internet & Society (Politecnico di Torino) About nexa
|
>
> _______________________________________________
> nexa mailing list
> nexa@server-nexa.polito.it
>
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
--
Prof.ssa Mariella Berra
Dipartimento di Culture, Politica e Società Università di Torino
tel.+390116702606
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa