Report: Software bug led to death in Uber’s self-driving crash
Sensors detected Elaine Herzberg, but software reportedly decided to ignore her. <https://arstechnica.com/tech-policy/2018/05/report-software-bug-led-to-death...> [...] If the software is programmed to be too cautious, the ride will be slow and jerky, as the car constantly slows down for objects that pose no threat to the car or aren't there at all. Tuning the software in the opposite direction will produce a smooth ride most of the time—but at the risk that the software will occasionally ignore a real object. According to Efrati, that's what happened in Tempe in March—and unfortunately the "real object" was a human being. [...]
Non servivano delle morti per prevederlo. Bastava un *minimo *di competenza informatica. Slide 33, 38 e successive: https://shamar.github.io/documents/2018_Milano_The-Delusions-of-Neural-Netwo... Giacomo 2018-05-10 17:43 GMT+02:00 Alberto Cammozzo <ac+nexa@zeromx.net>:
Sensors detected Elaine Herzberg, but software reportedly decided to ignore her.
<https://arstechnica.com/tech-policy/2018/05/report- software-bug-led-to-death-in-ubers-self-driving-crash/> [...] If the software is programmed to be too cautious, the ride will be slow and jerky, as the car constantly slows down for objects that pose no threat to the car or aren't there at all. Tuning the software in the opposite direction will produce a smooth ride most of the time—but at the risk that the software will occasionally ignore a real object. According to Efrati, that's what happened in Tempe in March—and unfortunately the "real object" was a human being. [...] _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
belle slide grazie dal mio punto di vista molto condivisibili. ci divide solamente l'idea della assoluta spiegabilita'. (che non e' solo un fatto tecnico, ma anche organizzativo ed economico). la conclusione, in realta', non cambia. ciao, s. On 10/05/2018 18:13, Giacomo Tesio wrote:
Non servivano delle morti per prevederlo. Bastava un *minimo *di competenza informatica.
Slide 33, 38 e successive: https://shamar.github.io/documents/2018_Milano_The-Delusions-of-Neural-Netwo...
Giacomo
2018-05-10 17:43 GMT+02:00 Alberto Cammozzo <ac+nexa@zeromx.net <mailto:ac+nexa@zeromx.net>>:
Sensors detected Elaine Herzberg, but software reportedly decided to ignore her.
<https://arstechnica.com/tech-policy/2018/05/report-software-bug-led-to-death... <https://arstechnica.com/tech-policy/2018/05/report-software-bug-led-to-death-in-ubers-self-driving-crash/>> [...] If the software is programmed to be too cautious, the ride will be slow and jerky, as the car constantly slows down for objects that pose no threat to the car or aren't there at all. Tuning the software in the opposite direction will produce a smooth ride most of the time—but at the risk that the software will occasionally ignore a real object. According to Efrati, that's what happened in Tempe in March—and unfortunately the "real object" was a human being. [...] _______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
2018-05-10 18:50 GMT+02:00 Stefano Quintarelli <stefano@quintarelli.it>:
belle slide grazie dal mio punto di vista molto condivisibili.
Ti ringrazio! In realtà le presentazioni degli altri speaker al seminario erano molto più interessanti.
ci divide solamente l'idea della assoluta spiegabilita'. (che non e' solo un fatto tecnico, ma anche organizzativo ed economico).
L'aspetto tecnico diventa principalmente una questione di costi: costi che crescono esponenzialmente (con la tecnologia disponibile ad oggi) ma che non devono diventare esternalità. Infatti il punto non è vietare l'uso di reti neurali o altre tecniche, ma* limitarlo a dati di origine non umana* e ad applicazioni che non mettono in pericolo la vita umana. Non c'è problema ad utilizzare una rete neurale per ottimizzare la vendemmia, o la selezione delle nocciole per una crema spalmabile, o per tutelare la flora e la fauna in un parco naturale, o per migliorare un sistema di traduzione. Analogamente, problematiche organizzative ed economiche vanno considerate come potenziali esternalità. Nessuno si sognerebbe di dire che una morte, causata da una difficoltà burocratica in un ospedale, non merita giustizia. Lo stesso deve valere per le difficoltà burocratiche, organizzative, economiche e tecniche legate alla intelligenza artificiale: *deve semplicemente essere punito dalla legge l'utilizzo di tecniche che impediscano di garantire i diritti dei cittadini* (come singoli, come organizzazioni e come collettività). L'assenza di trasparenza informativa non è diversa da altre esternalità. Dopo Eternit e Ilva, dovremmo avere imparato la lezione, non credi? Giacomo
participants (3)
-
Alberto Cammozzo -
Giacomo Tesio -
Stefano Quintarelli