in questi giorni ho ricevuto da una mailing list l'annuncio di questo seminario organizzato da «The Digital Humanism Initiative», dal titolo incuriosente di per sé e tanto più dopo gli ultimi scambi su questi temi:

Date and time: Tuesday, December 6, 2022 at 2:00 p.m. (14:00) Central European Time (UTC+1

Topic: “The Uselessness of AI Ethics”

Speakers: Luke Munn (University of Queensland) and Erich Prem ((Universität Wien & eutema, Austria)

To participate via Zoom go to: https://tuwien.zoom.us/j/96389928143?pwd=UU5YRkNuRmdoWHV4MFBwMWRCcUErdz09
(Password: 0dzqxqiy)

The talk will be live streamed and recorded on our YouTube channel: https://www.youtube.com/digitalhumanism
Hannes Werthner
-----
Sign the Vienna Manifesto: https://dighum.ec.tuwien.ac.at
Follow us on @DigHumTUWien

poiché spesso i seminari riguardano temi di ricerca attivi, ho cercato "The Uselessness of AI Ethics" in Scholar e ho visto che uno degli studiosi aveva pubblicato in agosto un articolo dal medesimo titolo nella rivista "AI and ethics", che si è rivelata ricca di articoli in OA su molteplici posizioni riguardo alla questione AI and ethics.
Maurizio


Il 20/11/22 18:01, nexa-request@server-nexa.polito.it ha scritto:
Message: 2
Date: Sun, 20 Nov 2022 17:01:54 +0000
From: Daniela Tafani <daniela.tafani@unipi.it>
To: "D. Davide Lamanna" <davide.lamanna@binarioetico.it>,
	"nexa@server-nexa.polito.it" <nexa@server-nexa.polito.it>
Subject: Re: [nexa]  [DKIM Failed] Re:   ethical AI (era "It’s time
	to admit, self-driving cars aren’t going to happen")
Message-ID: <051c787b881f4d00adaea666288f51e4@unipi.it>
Content-Type: text/plain; charset="windows-1252"

Ritengo che sia stato geniale, come strategia di marketing, accompagnare i primi disastrosi viaggi delle auto a guida (non) autonoma

con una rivisitazione del dilemma del trolley, quasi che quei veicoli che continuano a schiantarsi, ancora oggi (dati dei test)

contro un terzo dei ciclisti e contro tutte le altre auto che siano, pur lentamente, in arrivo,
siano in grado di sciogliere dilemmi su questioni di vita e di morte in modo più sofisticato di una roulette russa.


Analogamente, ritengo che la tesi che occorra interrogarsi su chi uccidere, in caso di incidenti inevitabili,

perché il diritto non conterrebbe le risposte a simili domande, sia uno specchietto per le allodole.
Il diritto degli stati con costituzioni che tutelino alcuni diritti fondamentali vieta infatti simili domande e questa è già una precisa risposta.


Del resto, se volessi farmi costruire una casa, in un terreno libero tra un supermercato e un asilo nido,

e l'ingegnere incaricato mi chiedesse se preferisco che, in caso di crollo, la casa frani, uccidendoli, sui bambini del nido

o sui clienti del supermercato, cambierei senz'altro ingegnere.


Ho provato a ricostruire alcuni aspetti morali e giuridici di questa questione qualche tempo fa (in un articolo non a accesso libero, di cui allego perciò il preprint),
quando ancora non erano emersi dati su vere e proprie truffe, come le auto programmate per disattivare l'autopilot

subito prima delle collisioni, così da far ricadere la colpa sul conducente umano,

e quando ancora non avevo capito che non vedremo auto a guida autonoma se non in strade dedicate, entro contesti che non richiedano il senso comune.


Il fatto che si stia costruendo oggi una strada liscissima, ex novo, per i test di tali auto, mi pare promettente:

superati i test, basterà riasfaltare tutte le strade del mondo... (https://www.highwaysmagazine.co.uk/ , numero di novembre 2022)


Grazie molte di aver condiviso le riflessioni su questo tema.

Buona serata,

Daniela


________________________________
Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di D. Davide Lamanna <davide.lamanna@binarioetico.it>
Inviato: domenica 20 novembre 2022 16:46
A: nexa@server-nexa.polito.it
Oggetto: [DKIM Failed] Re: [nexa] ethical AI (era "It’s time to admit, self-driving cars aren’t going to happen")

On 11/18/22 19:12, maurizio lana wrote:
...continuando a pensare su questo tema, al di là dei titoli dei thread,
credo che la questione artefatto - responsabilità - progettisti -
utilizzatori
sia centrale. perciò ripensando a questo passaggio
[L'artefatto non ha etica.
Esprime l'etica di chi l'ha costruito, imprimendola al resto del mondo. Ne riproduce la volontà. Ne diffonde i valori.]

L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante. Se non può alterare concretamente e consapevolmente il
funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare e pensare solo ciò che il creatore dell'artefatto stesso ha deciso.
trovo problematico affermare che "l'utilizzatore, nella stragrande
maggioranza dei casi, è eticamente irrilevante."
chi utilizza un coltello per uccidere la compagna, o i contractors di
Wagner che usano un martello per uccidere un compagno; non mi paiono
eticamente irrilevanti; e quindi direi al contrario che nella
stragrande maggioranza dei casi l’utilizzatore di un artefatto è
eticamente rilevante.
poi capisco che l'argomentazione sia venuta nella forma inversa
"l'utilizzatore, nella stragrande maggioranza dei casi, è eticamente
irrilevante" perché essa preparava la presentazione del caso "Rafaela
Vasquez, a bordo dell'auto di Uber che uccise Elaine
Herzberg nel 2018, non stava "usando" l'auto: ne veniva usata" in cui
sì certo l'utilizzatore dell'artefatto è utilizzato dall'artefatto. ma
è un caso particolare.
il caso generale rimane che l’utilizzatore di un artefatto è
eticamente rilevante (in caso contrario assolviamo tutti gli assassini
che per uccidere usano artefatti) e come in tutti i casi di
responsabilità etica, la conoscenza e la consapevolezza contano. se
sappiamo che le auto autonome possono uccidere mentre ci trasportano
possiamo pensare che esse ci esautorano dalla responsabilità per i
danni che possono causare mentre ci trasportano; _o possiamo decidere
di non usarle_ fintantoché la situazione non cambi. quindi è chiaro
che oggi abbiamo artefatti (con o senza IA) che complicano la
questione della responsabilità dell'utilizzatore; ma il principio
generale non mi pare che possa cambiare.
Maurozoo

Approfitto del thread refresh per alimentare le riflessioni.

1) Premesso che la riduzione di ogni aspetto della vita a funzione
ottimizzabile è limitante e pericoloso, l'automobile è l'esempio
sbagliato. Per me (ripeto: per me) l'automobile è un mezzo che trasporta
persone da A a B e come tale può essere efficacemente ottimizzato per un
numero di parametri: tempi, consumi, traffico, uccisioni, ferimenti,
danneggiamenti... Di essere ucciso da un'automobile guidata da una IA o
da un persona in carne ed ossa, a me, personalmente, cambia poco. Se
complessivamente, con la guida autonoma, muoiono meno persone ogni anno,
ben venga la mia morte per mano inorganica. Ricordo che l'automobile è
la ottava causa di morte (3700 persone al giorno, 1,35 milioni l'anno) e
la prima per persone tra i 5 e i 29 anni [1].

Se poi qualcun ritiene che l'automobile sia anche un mezzo per fare
passeggiate piacevoli o per gareggiare in velocità, e in quanto tale
vettore di espressione umana, abbiamo due visioni del mondo diverse e
non mi viene altro che consigliare di svolgere tali attività (per me
marginali, ma rispetto chi la pensa diversamente) con guida umana, e,
però, a questo punto, in luoghi adatti ad evitare danni, disagi e morte.


2) Rubo da Harari (che non va né incensato, né vituperato, ma più
semplicemente letto con i filtri di cui ci ritengo più che capaci) un
dilemma etico-automobilistico piuttosto interessante (tratto dal
principio del rasoio di Occam).

Una persona è alla guida su una strada ad alto scorrimento. Un bambino
con un pallone si getta improvvisamente in carreggiata. In una frazione
di secondo, la persona deve scegliere se sterzare per evitarlo e morire
con probabilità pari ad 1 schiacciata da un TIR che arriva in direzione
opposta, oppure proseguire senza sterzare e uccidere il bambino sempre
con probabilità pari ad 1. Non esistono altre possibilità. Come scegliere?

Una persona in carne ed ossa fa la sua scelta, dettata dal suo vissuto,
dalla sua etica, dalla sua personalità... In una parola: dal suo essere
una persona umana, diversa da qualcunque altra persona umana.

Una IA può scegliere in base a come è stata programmata, in base a
calcoli che è in grado di eseguire in quella frazione di secondo, in
base a funzioni di ottimizzazione. Tutte le IA tra loro uguali, lo
faranno allo stesso identico modo. Potrebbero ottimizzare sulla speranza
di vita della vittima (meglio che muoia la persona adulta che è nella
vettura piuttosto che un bambino) oppure rispetto a quanto pagherebbe
l'assicurazione nei due casi. Supponiamo che quando acquistiamo
l'automobile ci sottopongano una situazione di questo tipo in forma di
opzione da selezionare per istruire la IA. Cosa sceglieremmo? E cosa
sceglierebbe il nostro partner che trascorrerà molto tempo con noi in
auto? E come cambierebbe il premio della nostra assicurazione
automobilistica? E quella sanitaria?

I sistemi politico-filosofici informano, in modo diverso ma analogo,
persone umane (collettivamente e debolmente) e macchine (individualmente
e fortemente). Ma le macchine sono in mano di pochi, almeno fino ad ora.
E questi pochi adottano e promuovono sistemi capitalistici. Le persone
umane possono sempre autorganizzarsi e cambiare le cose.

D.

[1] https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211201546210821340&URLID=2&ESV=10.0.18.7423&IV=4CF95023FBB6AD7E7CA2B16CA3568423&TT=1668959182567&ESN=Qicqbsk6Qc0ABTaU5F%2BMa9cvbhFfRbAF1Hqsi4jh6kU%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly93d3cuY2RjLmdvdi9pbmp1cnkvZmVhdHVyZXMvZ2xvYmFsLXJvYWQtc2FmZXR5L2luZGV4Lmh0bWw&HK=8C1F8E48D5FEECE693E007D0CEB111FAB1922D9073320CE86AF9B02F5A5FA719

(null)
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211201546210821340&URLID=1&ESV=10.0.18.7423&IV=08DFA41B495F91DCA495DAE7BF8FB496&TT=1668959182566&ESN=miIFZ4yWhIAOy0iyLeKjDgOZ6u1oVff12eEpe24Jlt0%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=466F762B175B3221BD42EBC677C74A2B0B53FE7223CACA5B9D1C6929E6687CEE
-------------- next part --------------
An HTML attachment was scrubbed...
URL: <http://server-nexa.polito.it/pipermail/nexa/attachments/20221120/81577266/attachment.htm>
-------------- next part --------------
A non-text attachment was scrubbed...
Name: Daniela Tafani - Sulla moralità artificiale. Le decisioni delle macchine tra etica e diritto - Rivista di filosofia - 2020 (preprint).pdf
Type: application/pdf
Size: 268494 bytes
Desc: Daniela Tafani - Sulla moralità artificiale. Le decisioni delle macchine tra etica e diritto - Rivista di filosofia - 2020 (preprint).pdf
URL: <http://server-nexa.polito.it/pipermail/nexa/attachments/20221120/81577266/attachment.pdf>

------------------------------

Subject: Digest Footer

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


------------------------------

End of nexa Digest, Vol 163, Issue 42
*************************************



lo straniero non parla e non capisce la nostra lingua, 
che non è più nostra, perché la nostra vera lingua 
diventa la traduzione, lo scambio
l. ferrieri, dalla public library all’open library

Maurizio Lana
Università del Piemonte Orientale
Dipartimento di Studi Umanistici
Piazza Roma 36 - 13100 Vercelli