Forse, piu' che a trattare uomini come oggetti, l'errore e' pensarli come sommatoria molto semplificata di una serie di attivita'. Ecco l'errore con la guida autonoma: pensare che un autista vada da A a B col suo camion, e quindi possa essere sostituito. Ma quell'autista fa molto di piu': si occupa della sicurezza delle merci, partecipa attivamente al controllo qualita' dei pezzi, disbriga una serie di requisiti contabili/fiscali/normativi, e posso continuare a lungo con un elenco mirato sulla professione "autista". Lascio perdere che la persona non e' solo autista ma molto piu', ovviamente. Quando pensiamo ad una professione come sommatoria di attivita' standardizzabili, apriamo la strada al secondo errore, quello di pensare in termini sostitutivi invece che complementari. Saluti Rob ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Daniela Tafani <daniela.tafani@unipi.it> Inviato: domenica 30 ottobre 2022 09:36:58 A: Giacomo Tesio; Enrico Nardelli; Nexa Oggetto: Re: [nexa] [DKIM Failed] Re: "It’s time to admit self-driving cars aren’t going to happen" Grazie a voi per tutte queste considerazioni. Concordo con te, Giacomo. Credo però che la riduzione degli uomini a cose sia un gesto politico, più che un errore teorico. Fattualmente, è sempre possibile trattare gli uomini come se fossero cose. Ne sono la prova i campi di concentramento nazisti. Non a caso, Simon Baron-Cohen (La scienza del male: l’empatia e le origini della crudeltà, Milano, Cortina, 2012, pp. 1-5) collegava la sua volontà di capire, da scienziato, «i fattori che inducono le persone a trattare gli altri come oggetti» a un episodio biografico: il racconto di una reale trasformazione di persone in oggetti (quando aveva sette anni, il padre gli disse che i nazisti avevano trasformato gli ebrei in saponette). E non sono sicura che una lezione teorica sia sufficiente a dissuadere un nazista. Quanto alle auto a guida autonoma, cercavo di mettere in discussione il minor numero possibile di concetti impegnativi, come la libertà, considerato che, al momento, la tecnologia si ferma decisamente molto prima. Intendevo perciò "senso comune" nel suo significato più ristretto, essendo fuori dalla portata delle macchine già quello, oggi. Tra l'altro, per restare di nuovo a Kant, solo gli esseri umani sono in grado di agire non solo secondo leggi, ma altresì secondo la rappresentazione di leggi, da rispettare o violare. Concordo anche sull'insensatezza dell'etica dell'IA, ma ritengo, come ho provato ad argomentare nell'articolo che vi ho sottoposto, che la narrazione sull'etica dell'IA assecondi sì alcune tendenze umane spontanee, ma sia deliberatamente costruita e diffusa per interesse. Scusate, ho già scritto troppo e malamente. Spero che avremo modo di parlarne di persona. Un saluto, Daniela ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Giacomo Tesio <giacomo@tesio.it> Inviato: domenica 30 ottobre 2022 12:34 A: Enrico Nardelli; Nexa Oggetto: Re: [nexa] [DKIM Failed] Re: "It’s time to admit self-driving cars aren’t going to happen" Ciao Enrico, Daniela e Nexa. Grazie per questa splendida conversazione. On October 29, 2022 4:38:13 PM UTC, Enrico Nardelli wrote:
in contesti in qualche modo "chiusi" tali sistemi possono essere superiori agli esseri umani, mentre in situazioni "generaliste" le loro prestazioni continuano a rimanere indietro.
Vi sono almeno due problemi in questa frase Enrico: 1. la riduzione della persona ad una funzione 2. la riduzione del problema ad una questione di complessita computazionale Nessuna cosa che l'uomo costruisce può essere paragonata (e dunque essere qualificata come "superiore") all'uomo. Non è solo una questione etica o politica, ma proprio ontologica. Chi costruisce un artefatto, esprime sé stesso, la proprie idee ee i propri interessi di quel momento. Ma una volta costruito, l'artefatto ne rimane espressione invariabile (se non secondo le regole impostegli da quella stesaa volontà) e continua ad applicare quella volontà al mondo, fino ad ulteriore intervento umano (che si tratti di spegnerlo, romperlo o modificarlo). L'artefice invece ha una libertà che l'artefatto non può avere e che non gli può essere attribuita (così come una responsabilità) senza prima aver dimostrato non solo che è in grado di simulare intelligenza, ma che è dotato di libero arbitrio. L'artefice può cambiare idea. L'artefatto non ha idee. Dunque un artefatto è ontologicamente... una cosa. "Superiore all'uomo" non sarà mai, neanche in contesti chiusi. E questo perché l'uomo non esiste per svolgere una funzione. L'uomo è autonomo, l'artrfatto no. Questo significa che ha SEMPRE la possibilità di alterare (e scardinare) le regole di funzionamento del sistema cibernetico in cii opera, rendendolo imprevedibile. Può essere convinto a non esercitare questa autonomia, "perché non è giusto", "perché il padrone è buono", "perché we shall do no evil", "perché funziona così", per paura etc... Ma continua ontologicamente ad essere autonomo. Lo so, sembra una lunga supercazzola per due parole, ma l'uso di certe riduzioni (soprattutto da parte di figure autorevoli come te) alimenta l'alienazione cibernetica di molti. Alienazione che consiste nel processo di riduzione dell'autonomia delle persone sia attraverso la loro automatizione (pensa al burocrate senza compassione) sia attraverso l'antropomorfizzazione dell'automatismo che viene presentato come "autonomo" e antropomorfo.
Il 29/10/2022 08:00, Daniela Tafani ha scritto:
Abbiamo il senso comune, che vale molto di più dell'essere precisi.
Soprattutto abbiamo il buon senso (che è cosa sempre meno comune, purtroppo). Non siamo solo capaci di prevedere conseguenze, ma di empatizzare con chi sarà affetto da tali conseguenze. Quand'anche riuscissimo a superare i limiti computazionali che impediscono la previsione potremmo ottenere un "senso comune" applicato meccanicamente. Un "senso comune" indipendente dalla comunità. Un "senso comune" immutabile, che non può evolvere se non nel solco del programma (ovvero degli interessi di chi l'ha creato). Un "sensi comune" privo di "senso" giacché le macchine elaborano dati cui solo la mente umana può attribuire un significato. Non è dunque un problema di quantità, di disponibilità di dati o di potenza di calcolo. È una questione di essenza. Gli automatismi trasformano meccanicamente dati, non informazioni. Segni privi di un significato intrinseco, che solo l'uomo vi può attribuire. E non parlo solo dell'input o dell'output: il software stesso è privo di un significato intrinseco, tant'è che processori diversi reagiscono a segni diversi nello stesso modo e a segni uguali in modo diverso. E tant'è che possiamo persino progettare macchine per reagire in un determinato modo a segni (dati) cui non proviamo nemmeno ad attribuire un significato. Acquisire questa consapevolezza ha profonde implicazioni pratiche. Per esempio rende evidente l'assurdità di parlare di "etica delle AI" o di "Explainable AI". Il software è debuggabile. Ciò che puoi spiegare al limite sono le intenzioni e gli errori di chi l'ha scritto. E quando non è perfettamente debuggabile, allora è da buttare, perché troppo pericoloso: la sua esecuzione è letteralmente "irresponsabile". Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202210301134080621907...