Ciao Giacomo, IMHO sarebbe assolutamente etico metterla sul mercato dal punto di vista utilitaristico, e sarebbe pure corretto dal punto di vista kantiano. Il NON metterla sul mercato sarebbe probabilmente anche corretto per Kant 😊 Rob From: Giacomo Tesio <giacomo@tesio.it> Sent: Thursday, March 22, 2018 10:37 AM To: Roberto Dolci <rob.dolci@aizoon.us>; mfioretti@nexaima.net; Diego Giorio <dgiorio@hotmail.com> Cc: Mariella Berra <mariella.berra@unito.it>; nexa@server-nexa.polito.it Subject: Re: [nexa] Video dell'incidente mortale causato dalla AI di Uber Il 22 marzo 2018 11:36, Diego Giorio <dgiorio@hotmail.com<mailto:dgiorio@hotmail.com>> ha scritto:
Se un'auto robotica, per quanto imperfetta, dimezzasse questi incidenti, sarebbe etico non metterla sul mercato perchè i difetti causano l'altra metà?
Il 22 marzo 2018 13:12, M. Fioretti <mfioretti@nexaima.net<mailto:mfioretti@nexaima.net>> ha scritto:
"La responsabilità morale del fornitore di VA e della rete di VA sulle strade in un determinato momento non è salvare zia Ada ma raggiungere le ottimizzazioni che noi, come società, abbiamo assunto come decisione politica."
Il 22 marzo 2018 13:12, Roberto Dolci <rob.dolci@aizoon.us<mailto:rob.dolci@aizoon.us>> ha scritto:
Il filmato e' visionabile da due punti di vista: telecamera su strada e su guidatore (che mostra come questi stia guardando in basso su smartphone o tablet). E' chiaro che la vittima e' vestita di scuro/nero, attraversa una strada ad alta percorrenza ben fuori da strisce pedonali o semafori. Non si puo' pretendere che un algoritmo superi Darwin.
Durante la revisione del Libro Bianco IA, uno dei commentatori ha proposto un link di futurism che parlava della "MoralMachine" del MIT.: http://moralmachine.mit.edu/ Eseguire quel giochino è stato veramente ILLUMINANTE. Suggerisco a tutti di provare a farlo SERIAMENTE: 1) immaginate persone AMATE nei diversi ruoli prima di scegliere CHI UCCIDERE 2) segnare il responso su un foglietto 3) poi provate a scambiarle di ruolo e segnate di nuovo il responso 4) riprendete dal punto 1 fino a quando i responsi divergono 5) quando i responsi segnati sul foglietto convergono cliccate sulla opzione corrispondente e ricominciate con l'esempio successivo. Ripeto che è una esperienza ILLUMINANTE, che consiglio a tutti, per quanto LACERANTE possa essere (io ho fatto una enorme fatica a concentrarmi immaginando tutto il dolore che le diverse opzioni avrebbero causato). Per decidere fra le alternative fornite è NECESSARIO attribuire un valore "morale" relativo alle diverse vite in gioco, in modo da poter scegliere "moralmente" chi uccidere e chi salvare. Ora, la "Moral Machine" del MIT, come le frasi che ho citato, mostra due problemi macroscopici, uno psicologico/culturale e l'altro logico/matematico. Il problema psicologico in fondo accomuna il MIT e l'ISIS ma anche i crociati medioevali ed una vasta parte della popolazione occidentale. Si tratta dell'assunzione che il proprio sistema morale sia l'unico possibile, o quanto meno il migliore. Attribuire un valore scalare ad una vita è possibile in tutti i sistemi morali utilitaristici ed edonistici, quale quello che sorregge il capitalismo, in cui il MIT è immerso. La massima espressione ti questo sistema morale la troviamo espressa con eleganza in Italia, nel motto "uno vale uno". Fortunatamente il mondo è un po' più vario di così. In sistemi morali appena più raffinati, infatti, il problema così posto non ha soluzione. Per esempio il mio sistema morale, da cristiano cattolico, è multidimensionale: attribuisce a ciascuna vita un valore vettoriale su una direzione ortogonale a tutte le altre vite. Come conseguenza, io non posso letteralmente scegliere chi uccidere: vi lascio la dimostrazione (piuttosto semplice in realtà), ma per i non matematici basti notare che "non uccidere" non ammette eccezioni. ATTENZIONE! Questo non significa che il sistema morale cattolico sia inapplicabile a questo tipo di problemi pratici. Se proiettate su un asse economico ciascuna vita assume istantaneamente un valore infinito. E dunque, se il mio sistema morale non permette di decidere chi uccidere, permette invece di stabilire con chiarezza a quanta ricchezza possiamo rinunciare per salvare una vita: tutta quella che serve. Vi prego, dunque di non usare come argomento il fatto che le auto a guida autonoma possono salvare più vite di quelle che spezzano. A me non interessa. A me interessa che chi causa la morte di una persona, per azione o per omissione, ne sia responsabile penalmente come ne è responsabile moralmente. Giacomo