La settimana scorsa, in un convegno alla Camera sull’etica nella AI, Stefano in un suo lucido e rigoroso intervento ha offerto ai partecipanti uno spunto per me davvero molto interessante. (Lo cito a memoria e Stefano mi correggerà se dico una corbelleria) Siamo da sempre abituati, quando abbiamo a che fare con macchine, dalle più semplici alle più sofisticate, a pensare che a un errore della macchina corrisponda un suo cattivo funzionamento. Deriva da questo che se siamo capaci di riparare la macchina l’errore non si ripeterà. Con sistemi di AI non è così. Macchine perfettamente funzionanti possono generare errori. Non c’è niente da riparare. Ma forse molto da proteggere. (Quest’ultima considerazione è solo mia, non di Stefano) È di questo che si sta parlando, oppure ho capito male?
Il giorno 30 nov 2019, alle ore 17:26, Giacomo Tesio <giacomo@tesio.it> ha scritto:
Il November 30, 2019 12:32:18 PM UTC, Stefano Quintarelli <stefano@quintarelli.it> ha scritto:
il boeing 737 era guidato da un sistema detreministico (difettoso) e' difettoso un farmaco che potrebbe generare una insufficienza renale acuta ? (la tachipirina, per dire)
Per la verità, oltre i 3 grammi al giorno il paracetamolo è epatotossico. E stando al mio farmacista, già nel dosaggio da 1 grammo (la tachipirina da 1000) causa epatite nel 10% della popolazione perché non viene completamente metabolizzato.
In altri termini, è pericoloso. Ed a fronte di questo pericolo classifichiamo la tachipirina come farmaco invece che come caramella.
Non a caso nelle farmacie e nelle parafarmacie dove si la può acquistare trovi farmacisti qualificati (o quanto meno iscritti all'albo... ma questa è un'altra storia).
A ben guardare, si tratta di redress by design: laddove evitare un pericolo ci espone ad un danno certo, abbiamo creato un sistema di controllo umano correlato a responsabilità umane volte ad evitare che il rischio si concretizzi, abbassandone il più possibile la probabilità.
Vogliamo vendere auto a guida autonoma come la tachipirina? Perfetto: basta prendere le dovute precauzioni.
Creiamo (con soldi pubblici o privati?) l'infrastruttura necessaria: strade riservate al loro transito. E prevediamo un essere umano responsabile, in grado di evitare che uccidano qualcuno.
Questo essere umano può stare dentro il veicolo (dove di fatto ha accesso meccanico ai freni e al volante, minimizzando latenza e rischi di connessione) o su una torre di controllo. L'importante è che ci sia sempre un essere umano chiaramente identificabile da privare della libertà in caso di danni alle persone.
E questo vale per qualsiasi strumento di cui non sappiamo spiegare il comportamento ma decidiamo, da bravi fedeli del Cargo culting in questione, di applicare all'uomo.
Giacomo -- Inviato da un terminale mobile. Perdonate brevità ed orrori grammaticali. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa