On 11/18/22 19:12, maurizio lana wrote:
...continuando a pensare su questo tema, al di là dei titoli dei thread, credo che la questione artefatto - responsabilità - progettisti - utilizzatori sia centrale. perciò ripensando a questo passaggio
[L'artefatto non ha etica. Esprime l'etica di chi l'ha costruito, imprimendola al resto del mondo. Ne riproduce la volontà. Ne diffonde i valori.]
L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante. Se non può alterare concretamente e consapevolmente il funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare e pensare solo ciò che il creatore dell'artefatto stesso ha deciso. trovo problematico affermare che "l'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante." chi utilizza un coltello per uccidere la compagna, o i contractors di Wagner che usano un martello per uccidere un compagno; non mi paiono eticamente irrilevanti; e quindi direi al contrario che nella stragrande maggioranza dei casi l’utilizzatore di un artefatto è eticamente rilevante. poi capisco che l'argomentazione sia venuta nella forma inversa "l'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante" perché essa preparava la presentazione del caso "Rafaela Vasquez, a bordo dell'auto di Uber che uccise Elaine Herzberg nel 2018, non stava "usando" l'auto: ne veniva usata" in cui sì certo l'utilizzatore dell'artefatto è utilizzato dall'artefatto. ma è un caso particolare. il caso generale rimane che l’utilizzatore di un artefatto è eticamente rilevante (in caso contrario assolviamo tutti gli assassini che per uccidere usano artefatti) e come in tutti i casi di responsabilità etica, la conoscenza e la consapevolezza contano. se sappiamo che le auto autonome possono uccidere mentre ci trasportano possiamo pensare che esse ci esautorano dalla responsabilità per i danni che possono causare mentre ci trasportano; _o possiamo decidere di non usarle_ fintantoché la situazione non cambi. quindi è chiaro che oggi abbiamo artefatti (con o senza IA) che complicano la questione della responsabilità dell'utilizzatore; ma il principio generale non mi pare che possa cambiare. Maurozoo
Approfitto del thread refresh per alimentare le riflessioni. 1) Premesso che la riduzione di ogni aspetto della vita a funzione ottimizzabile è limitante e pericoloso, l'automobile è l'esempio sbagliato. Per me (ripeto: per me) l'automobile è un mezzo che trasporta persone da A a B e come tale può essere efficacemente ottimizzato per un numero di parametri: tempi, consumi, traffico, uccisioni, ferimenti, danneggiamenti... Di essere ucciso da un'automobile guidata da una IA o da un persona in carne ed ossa, a me, personalmente, cambia poco. Se complessivamente, con la guida autonoma, muoiono meno persone ogni anno, ben venga la mia morte per mano inorganica. Ricordo che l'automobile è la ottava causa di morte (3700 persone al giorno, 1,35 milioni l'anno) e la prima per persone tra i 5 e i 29 anni [1]. Se poi qualcun ritiene che l'automobile sia anche un mezzo per fare passeggiate piacevoli o per gareggiare in velocità, e in quanto tale vettore di espressione umana, abbiamo due visioni del mondo diverse e non mi viene altro che consigliare di svolgere tali attività (per me marginali, ma rispetto chi la pensa diversamente) con guida umana, e, però, a questo punto, in luoghi adatti ad evitare danni, disagi e morte. 2) Rubo da Harari (che non va né incensato, né vituperato, ma più semplicemente letto con i filtri di cui ci ritengo più che capaci) un dilemma etico-automobilistico piuttosto interessante (tratto dal principio del rasoio di Occam). Una persona è alla guida su una strada ad alto scorrimento. Un bambino con un pallone si getta improvvisamente in carreggiata. In una frazione di secondo, la persona deve scegliere se sterzare per evitarlo e morire con probabilità pari ad 1 schiacciata da un TIR che arriva in direzione opposta, oppure proseguire senza sterzare e uccidere il bambino sempre con probabilità pari ad 1. Non esistono altre possibilità. Come scegliere? Una persona in carne ed ossa fa la sua scelta, dettata dal suo vissuto, dalla sua etica, dalla sua personalità... In una parola: dal suo essere una persona umana, diversa da qualcunque altra persona umana. Una IA può scegliere in base a come è stata programmata, in base a calcoli che è in grado di eseguire in quella frazione di secondo, in base a funzioni di ottimizzazione. Tutte le IA tra loro uguali, lo faranno allo stesso identico modo. Potrebbero ottimizzare sulla speranza di vita della vittima (meglio che muoia la persona adulta che è nella vettura piuttosto che un bambino) oppure rispetto a quanto pagherebbe l'assicurazione nei due casi. Supponiamo che quando acquistiamo l'automobile ci sottopongano una situazione di questo tipo in forma di opzione da selezionare per istruire la IA. Cosa sceglieremmo? E cosa sceglierebbe il nostro partner che trascorrerà molto tempo con noi in auto? E come cambierebbe il premio della nostra assicurazione automobilistica? E quella sanitaria? I sistemi politico-filosofici informano, in modo diverso ma analogo, persone umane (collettivamente e debolmente) e macchine (individualmente e fortemente). Ma le macchine sono in mano di pochi, almeno fino ad ora. E questi pochi adottano e promuovono sistemi capitalistici. Le persone umane possono sempre autorganizzarsi e cambiare le cose. D. [1] https://www.cdc.gov/injury/features/global-road-safety/index.html (null)