Buongiorno. Grazie della segnalazione. L'articolo di Munn è condivisibile nella pars destruens, che prende atto di una critica ormai diffusa all'AI ethics, a partire, tra gli altri, dagli articoli di Wagner, Ethics As An Escape From Regulation. From “Ethics-Washing” To Ethics-Shopping?, e D. Greene, A.L. Hoffman, L. Stark, Better, Nicer, Clearer, Fairer: A Critical Assessment of the Movement for Ethical Artificial Intelligence and Machine Learning. Trovo meno convincente la pars construens, che propone di sostituire il concetto di etica con quello di giustizia (così da tener conto dei sistemi sociali da cui i sistemi di machine learning traggono i dati di partenza e nei quali trovano applicazione) e finisce con la consueta richiesta di trasparenza e di ascolto delle minoranze. Ritengo più appropriate le impostazioni che respingano l'eccezionalismo e invochino un'apparizione del convitato di pietra: il diritto. Se un sistema, in una sua specifica applicazione, produce danni (che siano a pochi o a molti, a specifici o a indeterminati gruppi di individui), ledendo diritti tutelati dalla legge, la legge deve proibirli o, come ha proposto Frank Pasquale, dichiararli illegali fino a prova contraria, attribuendo l'onere di tale prova contraria alle aziende che vogliano produrli o commercializzarli. Questa impostazione è semplice, politicamente, e altamente indesiderata da chi sta prosperando col commercio di snake oil. Oltretutto, se anche i singoli bias fossero tecnicamente emendabili, non si otterrebbero certo la giustizia o l'equità, entro un sistema che sta riducendo le questioni sociali a problemi di sorveglianza, controllo e computazione. Chiarissime, su questo, J. Powles, H. Nissenbaum, The Seductive Diversion of ‘Solving’ Bias in Artificial Intelligence, https://onezero.medium.com/the-seductive-diversion-of-solving-bias-in-artifi... Buona domenica, Daniela ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di maurizio lana <maurizio.lana@uniupo.it> Inviato: sabato 26 novembre 2022 19:22 A: nexa@server-nexa.polito.it Oggetto: Re: [nexa] ethical AI (era "It’s time to admit, self-driving cars aren’t going to happen") in questi giorni ho ricevuto da una mailing list l'annuncio di questo seminario organizzato da «The Digital Humanism Initiative», dal titolo incuriosente di per sé e tanto più dopo gli ultimi scambi su questi temi: Date and time: Tuesday, December 6, 2022 at 2:00 p.m. (14:00) Central European Time (UTC+1 Topic: “The Uselessness of AI Ethics” Speakers: Luke Munn (University of Queensland) and Erich Prem ((Universität Wien & eutema, Austria) To participate via Zoom go to: https://tuwien.zoom.us/j/96389928143?pwd=UU5YRkNuRmdoWHV4MFBwMWRCcUErdz09<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211261822160836389&URLID=27&ESV=10.0.18.7423&IV=C86561745A75E89DB99D62371090689D&TT=1669486937815&ESN=XZgOjyX2lAMs7jzxsmoeO2wGw87wtYkLoeQlbcDlMsw%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cDovL3h1eHNzLm1qdC5sdS9sbmsvQVV3QUFBT0ctaEFBQUFBZ1FuNEFBRHJ3aWl3QUFBQUFSY0VBQURKekFCRzdDUUJqZ0w3aFdzQUNmWU5IUlNhV2xVZXBHaTJDZWdBUng5TS8xL3FaQm1UQlNPVm9ybmwybGt5UWVfYncvYUhSMGNITTZMeTkwZFhkcFpXNHVlbTl2YlM1MWN5OXFMemsyTXpnNU9USTRNVFF6UDNCM1pEMVZWVFZaVW10T2RWSnRaRzlYU0ZZMFRVWkNkMDFYVWtOalZVVnlaSG93T1E&HK=0DFD8BEF6723C8914166C2D0223200F9E39BF337D48D5D6C5E21BF946C6E5E32> (Password: 0dzqxqiy) The talk will be live streamed and recorded on our YouTube channel: https://www.youtube.com/digitalhumanism <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211261822160836389&URLID=25&ESV=10.0.18.7423&IV=D4C6752CC147C1432D37644BF941F0A6&TT=1669486937815&ESN=34BchD%2BljStzL25lA7OITk9woopYTFrj7GNrjSmpVT0%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cDovL3h1eHNzLm1qdC5sdS9sbmsvQVV3QUFBT0ctaEFBQUFBZ1FuNEFBRHJ3aWl3QUFBQUFSY0VBQURKekFCRzdDUUJqZ0w3aFdzQUNmWU5IUlNhV2xVZXBHaTJDZWdBUng5TS8yL0lhaWk2RTU3SU9MLUtZUVRUUkptVXcvYUhSMGNITTZMeTkzZDNjdWVXOTFkSFZpWlM1amIyMHZaR2xuYVhSaGJHaDFiV0Z1YVhOdA&HK=6F339AE2C6059542BEAE993B2BBE7B9EED689D076158DF2C8D4877018F6E56D9>Hannes Werthner ----- Sign the Vienna Manifesto: https://dighum.ec.tuwien.ac.at<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211261822160836389&URLID=23&ESV=10.0.18.7423&IV=847E918AF2844ED68213BF0A8A66FDA2&TT=1669486937815&ESN=M1yQqNU5stgVvnrvofkBOLDuUZqnlTctnlXNLJGndh0%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9kaWdodW0uZWMudHV3aWVuLmFjLmF0&HK=C8CEC14F9FDE8718E4332D1B525E43FD587B36B4DFC6679717FDD52DA9E9894B> Follow us on @DigHumTUWien <http://xuxss.mjt.lu/lnk/AUwAAAOG-hAAAAAgQn4AADrwiiwAAAAARcEAADJzABG7CQBjgL7h...> poiché spesso i seminari riguardano temi di ricerca attivi, ho cercato "The Uselessness of AI Ethics" in Scholar e ho visto che uno degli studiosi aveva pubblicato in agosto un articolo dal medesimo titolo nella rivista "AI and ethics", che si è rivelata ricca di articoli in OA su molteplici posizioni riguardo alla questione AI and ethics. Maurizio Il 20/11/22 18:01, nexa-request@server-nexa.polito.it<mailto:nexa-request@server-nexa.polito.it> ha scritto: Message: 2 Date: Sun, 20 Nov 2022 17:01:54 +0000 From: Daniela Tafani <daniela.tafani@unipi.it><mailto:daniela.tafani@unipi.it> To: "D. Davide Lamanna" <davide.lamanna@binarioetico.it><mailto:davide.lamanna@binarioetico.it>, "nexa@server-nexa.polito.it"<mailto:nexa@server-nexa.polito.it> <nexa@server-nexa.polito.it><mailto:nexa@server-nexa.polito.it> Subject: Re: [nexa] [DKIM Failed] Re: ethical AI (era "It’s time to admit, self-driving cars aren’t going to happen") Message-ID: <051c787b881f4d00adaea666288f51e4@unipi.it><mailto:051c787b881f4d00adaea666288f51e4@unipi.it> Content-Type: text/plain; charset="windows-1252" Ritengo che sia stato geniale, come strategia di marketing, accompagnare i primi disastrosi viaggi delle auto a guida (non) autonoma con una rivisitazione del dilemma del trolley, quasi che quei veicoli che continuano a schiantarsi, ancora oggi (dati dei test) contro un terzo dei ciclisti e contro tutte le altre auto che siano, pur lentamente, in arrivo, siano in grado di sciogliere dilemmi su questioni di vita e di morte in modo più sofisticato di una roulette russa. Analogamente, ritengo che la tesi che occorra interrogarsi su chi uccidere, in caso di incidenti inevitabili, perché il diritto non conterrebbe le risposte a simili domande, sia uno specchietto per le allodole. Il diritto degli stati con costituzioni che tutelino alcuni diritti fondamentali vieta infatti simili domande e questa è già una precisa risposta. Del resto, se volessi farmi costruire una casa, in un terreno libero tra un supermercato e un asilo nido, e l'ingegnere incaricato mi chiedesse se preferisco che, in caso di crollo, la casa frani, uccidendoli, sui bambini del nido o sui clienti del supermercato, cambierei senz'altro ingegnere. Ho provato a ricostruire alcuni aspetti morali e giuridici di questa questione qualche tempo fa (in un articolo non a accesso libero, di cui allego perciò il preprint), quando ancora non erano emersi dati su vere e proprie truffe, come le auto programmate per disattivare l'autopilot subito prima delle collisioni, così da far ricadere la colpa sul conducente umano, e quando ancora non avevo capito che non vedremo auto a guida autonoma se non in strade dedicate, entro contesti che non richiedano il senso comune. Il fatto che si stia costruendo oggi una strada liscissima, ex novo, per i test di tali auto, mi pare promettente: superati i test, basterà riasfaltare tutte le strade del mondo... (https://www.highwaysmagazine.co.uk/<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211261822160836389&URLID=15&ESV=10.0.18.7423&IV=A741681D3C76671E207AD2493F5B81A4&TT=1669486937815&ESN=ga%2F%2FdY%2BCHJzIhewP3MtkQA0Ceb0FVzg9ZWUsJ%2BGLmIA%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly93d3cuaGlnaHdheXNtYWdhemluZS5jby51ay8&HK=B317883C53313CC9F0D6E119F9AFA00F109A0CBD26A5A715F3EC89BEF457FA01> , numero di novembre 2022) Grazie molte di aver condiviso le riflessioni su questo tema. Buona serata, Daniela ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it><mailto:nexa-bounces@server-nexa.polito.it> per conto di D. Davide Lamanna <davide.lamanna@binarioetico.it><mailto:davide.lamanna@binarioetico.it> Inviato: domenica 20 novembre 2022 16:46 A: nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> Oggetto: [DKIM Failed] Re: [nexa] ethical AI (era "It’s time to admit, self-driving cars aren’t going to happen") On 11/18/22 19:12, maurizio lana wrote: ...continuando a pensare su questo tema, al di là dei titoli dei thread, credo che la questione artefatto - responsabilità - progettisti - utilizzatori sia centrale. perciò ripensando a questo passaggio [L'artefatto non ha etica. Esprime l'etica di chi l'ha costruito, imprimendola al resto del mondo. Ne riproduce la volontà. Ne diffonde i valori.] L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante. Se non può alterare concretamente e consapevolmente il funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare e pensare solo ciò che il creatore dell'artefatto stesso ha deciso. trovo problematico affermare che "l'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante." chi utilizza un coltello per uccidere la compagna, o i contractors di Wagner che usano un martello per uccidere un compagno; non mi paiono eticamente irrilevanti; e quindi direi al contrario che nella stragrande maggioranza dei casi l’utilizzatore di un artefatto è eticamente rilevante. poi capisco che l'argomentazione sia venuta nella forma inversa "l'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante" perché essa preparava la presentazione del caso "Rafaela Vasquez, a bordo dell'auto di Uber che uccise Elaine Herzberg nel 2018, non stava "usando" l'auto: ne veniva usata" in cui sì certo l'utilizzatore dell'artefatto è utilizzato dall'artefatto. ma è un caso particolare. il caso generale rimane che l’utilizzatore di un artefatto è eticamente rilevante (in caso contrario assolviamo tutti gli assassini che per uccidere usano artefatti) e come in tutti i casi di responsabilità etica, la conoscenza e la consapevolezza contano. se sappiamo che le auto autonome possono uccidere mentre ci trasportano possiamo pensare che esse ci esautorano dalla responsabilità per i danni che possono causare mentre ci trasportano; _o possiamo decidere di non usarle_ fintantoché la situazione non cambi. quindi è chiaro che oggi abbiamo artefatti (con o senza IA) che complicano la questione della responsabilità dell'utilizzatore; ma il principio generale non mi pare che possa cambiare. Maurozoo Approfitto del thread refresh per alimentare le riflessioni. 1) Premesso che la riduzione di ogni aspetto della vita a funzione ottimizzabile è limitante e pericoloso, l'automobile è l'esempio sbagliato. Per me (ripeto: per me) l'automobile è un mezzo che trasporta persone da A a B e come tale può essere efficacemente ottimizzato per un numero di parametri: tempi, consumi, traffico, uccisioni, ferimenti, danneggiamenti... Di essere ucciso da un'automobile guidata da una IA o da un persona in carne ed ossa, a me, personalmente, cambia poco. Se complessivamente, con la guida autonoma, muoiono meno persone ogni anno, ben venga la mia morte per mano inorganica. Ricordo che l'automobile è la ottava causa di morte (3700 persone al giorno, 1,35 milioni l'anno) e la prima per persone tra i 5 e i 29 anni [1]. Se poi qualcun ritiene che l'automobile sia anche un mezzo per fare passeggiate piacevoli o per gareggiare in velocità, e in quanto tale vettore di espressione umana, abbiamo due visioni del mondo diverse e non mi viene altro che consigliare di svolgere tali attività (per me marginali, ma rispetto chi la pensa diversamente) con guida umana, e, però, a questo punto, in luoghi adatti ad evitare danni, disagi e morte. 2) Rubo da Harari (che non va né incensato, né vituperato, ma più semplicemente letto con i filtri di cui ci ritengo più che capaci) un dilemma etico-automobilistico piuttosto interessante (tratto dal principio del rasoio di Occam). Una persona è alla guida su una strada ad alto scorrimento. Un bambino con un pallone si getta improvvisamente in carreggiata. In una frazione di secondo, la persona deve scegliere se sterzare per evitarlo e morire con probabilità pari ad 1 schiacciata da un TIR che arriva in direzione opposta, oppure proseguire senza sterzare e uccidere il bambino sempre con probabilità pari ad 1. Non esistono altre possibilità. Come scegliere? Una persona in carne ed ossa fa la sua scelta, dettata dal suo vissuto, dalla sua etica, dalla sua personalità... In una parola: dal suo essere una persona umana, diversa da qualcunque altra persona umana. Una IA può scegliere in base a come è stata programmata, in base a calcoli che è in grado di eseguire in quella frazione di secondo, in base a funzioni di ottimizzazione. Tutte le IA tra loro uguali, lo faranno allo stesso identico modo. Potrebbero ottimizzare sulla speranza di vita della vittima (meglio che muoia la persona adulta che è nella vettura piuttosto che un bambino) oppure rispetto a quanto pagherebbe l'assicurazione nei due casi. Supponiamo che quando acquistiamo l'automobile ci sottopongano una situazione di questo tipo in forma di opzione da selezionare per istruire la IA. Cosa sceglieremmo? E cosa sceglierebbe il nostro partner che trascorrerà molto tempo con noi in auto? E come cambierebbe il premio della nostra assicurazione automobilistica? E quella sanitaria? I sistemi politico-filosofici informano, in modo diverso ma analogo, persone umane (collettivamente e debolmente) e macchine (individualmente e fortemente). Ma le macchine sono in mano di pochi, almeno fino ad ora. E questi pochi adottano e promuovono sistemi capitalistici. Le persone umane possono sempre autorganizzarsi e cambiare le cose. D. [1] https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211201546210821340... (null) _______________________________________________ nexa mailing list nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211201546210821340...