Re: [nexa] "It’s time to admit self-driving cars aren’t going to happen"
Fri, 28 Oct 2022 20:10:02 +0200 Enrico Nardelli wrote
. . . non riusciremo mai ad arrivare al livello di precisione degli esseri umani . . . Domando: noi esseri umani siamo precisi? Cordialmente, Duccio (Alessandro Marzocchi)
magari no, ma siamo portatori di diritti e doveri, responsabili, coscienti. ciao, s. On 28/10/22 21:43, alessandro marzocchi wrote:
Fri, 28 Oct 2022 20:10:02 +0200Enrico Nardelli wrote
. . . non riusciremo mai ad arrivare al livello di precisione degli esseri umani. . . Domando: noi esseri umani siamo precisi? Cordialmente, Duccio (Alessandro Marzocchi)
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Abbiamo il senso comune, che vale molto di più dell'essere precisi. Come osservava Kant, siamo in grado di procedere, nelle inferenze abituali, in virtù di automatismi che ci inducono a scambiarle, poi, per percezioni immediate. E a quanto ne so, nessuno ha la più pallida idea di come implementare il senso comune, malgrado tutti i finanziamenti in questo ambito, perché è un patrimonio di conoscenza e capacità non replicabile con la sola statistica e non riducibile a un catalogo di regole. Un saluto, Daniela ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di alessandro marzocchi <alemarzoc@gmail.com> Inviato: venerdì 28 ottobre 2022 21:43 A: nexa@server-nexa.polito.it Oggetto: [DKIM Failed] Re: [nexa] "It’s time to admit self-driving cars aren’t going to happen" Fri, 28 Oct 2022 20:10:02 +0200 Enrico Nardelli wrote
. . . non riusciremo mai ad arrivare al livello di precisione degli esseri umani . . . Domando: noi esseri umani siamo precisi? Cordialmente, Duccio (Alessandro Marzocchi)
Grazie Daniela quando parlavo di precisione degli esseri umani intendevo - senza rendermene conto - parlare di questa qualità che tu hai espresso così bene, qualità che inconsciamente siamo tutti in grado di riconoscere, ma che nessuno è in grado di esplicitare in modo "chiuso", sotto forma di un insieme di criteri ed indicatori, perché il mondo in cui operiamo è un mondo aperto. Qualità che ci porta, come ricordava Stefano, ad essere responsabili e consapevoli di ciò che stiamo facendo. Mi pare che ciò che stiamo vedendo dai progressi dell'IA indica in modo sempre più chiaro che in contesti in qualche modo "chiusi" tali sistemi possono essere superiori agli esseri umani, mentre in situazioni "generaliste" le loro prestazioni continuano a rimanere indietro. Penso quindi che sicuramente veicoli a guida autonoma diventeranno realtà diffusa in futuro in contesti chiusi (ma ricordiamo che le navette auto-guidate sono presenti tra i terminal degli aeroporti da tantissimo tempo), quali ad esempio quello delle cave discusso nell'articolo su Bloomberg citato da Juan Carlos. In parallelo, c'è tutto il vasto ambito dell'assistenza alle prestazioni degli esseri umani (come ricorda anche Stefano nel suo post che ha citato), sia per evitare errori dovuti a distrazioni e disattenzioni, sia per migliorare le prestazioni in certe situazioni: un sistema di frenata ABS non è intelligenza artificiale ma aiuta ad evitare incidenti in molte situazioni. Ciao, Enrico Il 29/10/2022 08:00, Daniela Tafani ha scritto:
Abbiamo il senso comune, che vale molto di più dell'essere precisi.
Come osservava Kant, siamo in grado di procedere, nelle inferenze abituali,
in virtù di automatismi che ci inducono a scambiarle, poi, per percezioni immediate.
E a quanto ne so, nessuno ha la più pallida idea di come implementare il senso comune, malgrado tutti i finanziamenti in questo ambito, perché è un patrimonio di conoscenza e capacità non replicabile con la sola statistica e non riducibile a un catalogo di regole.
Un saluto, Daniela
------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ *Da:* nexa <nexa-bounces@server-nexa.polito.it> per conto di alessandro marzocchi <alemarzoc@gmail.com> *Inviato:* venerdì 28 ottobre 2022 21:43 *A:* nexa@server-nexa.polito.it *Oggetto:* [DKIM Failed] Re: [nexa] "It’s time to admit self-driving cars aren’t going to happen"
Fri, 28 Oct 2022 20:10:02 +0200Enrico Nardelli wrote
. . . non riusciremo mai ad arrivare al livello di precisione degli esseri umani. . . Domando: noi esseri umani siamo precisi? Cordialmente, Duccio (Alessandro Marzocchi)
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- -- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
Ciao Enrico, Daniela e Nexa. Grazie per questa splendida conversazione. On October 29, 2022 4:38:13 PM UTC, Enrico Nardelli wrote:
in contesti in qualche modo "chiusi" tali sistemi possono essere superiori agli esseri umani, mentre in situazioni "generaliste" le loro prestazioni continuano a rimanere indietro.
Vi sono almeno due problemi in questa frase Enrico: 1. la riduzione della persona ad una funzione 2. la riduzione del problema ad una questione di complessita computazionale Nessuna cosa che l'uomo costruisce può essere paragonata (e dunque essere qualificata come "superiore") all'uomo. Non è solo una questione etica o politica, ma proprio ontologica. Chi costruisce un artefatto, esprime sé stesso, la proprie idee ee i propri interessi di quel momento. Ma una volta costruito, l'artefatto ne rimane espressione invariabile (se non secondo le regole impostegli da quella stesaa volontà) e continua ad applicare quella volontà al mondo, fino ad ulteriore intervento umano (che si tratti di spegnerlo, romperlo o modificarlo). L'artefice invece ha una libertà che l'artefatto non può avere e che non gli può essere attribuita (così come una responsabilità) senza prima aver dimostrato non solo che è in grado di simulare intelligenza, ma che è dotato di libero arbitrio. L'artefice può cambiare idea. L'artefatto non ha idee. Dunque un artefatto è ontologicamente... una cosa. "Superiore all'uomo" non sarà mai, neanche in contesti chiusi. E questo perché l'uomo non esiste per svolgere una funzione. L'uomo è autonomo, l'artrfatto no. Questo significa che ha SEMPRE la possibilità di alterare (e scardinare) le regole di funzionamento del sistema cibernetico in cii opera, rendendolo imprevedibile. Può essere convinto a non esercitare questa autonomia, "perché non è giusto", "perché il padrone è buono", "perché we shall do no evil", "perché funziona così", per paura etc... Ma continua ontologicamente ad essere autonomo. Lo so, sembra una lunga supercazzola per due parole, ma l'uso di certe riduzioni (soprattutto da parte di figure autorevoli come te) alimenta l'alienazione cibernetica di molti. Alienazione che consiste nel processo di riduzione dell'autonomia delle persone sia attraverso la loro automatizione (pensa al burocrate senza compassione) sia attraverso l'antropomorfizzazione dell'automatismo che viene presentato come "autonomo" e antropomorfo.
Il 29/10/2022 08:00, Daniela Tafani ha scritto:
Abbiamo il senso comune, che vale molto di più dell'essere precisi.
Soprattutto abbiamo il buon senso (che è cosa sempre meno comune, purtroppo). Non siamo solo capaci di prevedere conseguenze, ma di empatizzare con chi sarà affetto da tali conseguenze. Quand'anche riuscissimo a superare i limiti computazionali che impediscono la previsione potremmo ottenere un "senso comune" applicato meccanicamente. Un "senso comune" indipendente dalla comunità. Un "senso comune" immutabile, che non può evolvere se non nel solco del programma (ovvero degli interessi di chi l'ha creato). Un "sensi comune" privo di "senso" giacché le macchine elaborano dati cui solo la mente umana può attribuire un significato. Non è dunque un problema di quantità, di disponibilità di dati o di potenza di calcolo. È una questione di essenza. Gli automatismi trasformano meccanicamente dati, non informazioni. Segni privi di un significato intrinseco, che solo l'uomo vi può attribuire. E non parlo solo dell'input o dell'output: il software stesso è privo di un significato intrinseco, tant'è che processori diversi reagiscono a segni diversi nello stesso modo e a segni uguali in modo diverso. E tant'è che possiamo persino progettare macchine per reagire in un determinato modo a segni (dati) cui non proviamo nemmeno ad attribuire un significato. Acquisire questa consapevolezza ha profonde implicazioni pratiche. Per esempio rende evidente l'assurdità di parlare di "etica delle AI" o di "Explainable AI". Il software è debuggabile. Ciò che puoi spiegare al limite sono le intenzioni e gli errori di chi l'ha scritto. E quando non è perfettamente debuggabile, allora è da buttare, perché troppo pericoloso: la sua esecuzione è letteralmente "irresponsabile". Giacomo
E questo perché l'uomo non esiste per svolgere una funzione.
Approfitto di questa tua frase per segnalare l'intervento che Miguel Benasayag terrà il 13 novembre prossimo all'interno della Biennale Tecnologia [1]. Benasayag è autore di "Funzionare o esistere?" A. [1] https://www.biennaletecnologia.it/sessioni/pensare-e-agire-nella-complessita [2] https://www.vitaepensiero.it/scheda-libro/miguel-benasayag/funzionare-o-esis...
Grazie a voi per tutte queste considerazioni. Concordo con te, Giacomo. Credo però che la riduzione degli uomini a cose sia un gesto politico, più che un errore teorico. Fattualmente, è sempre possibile trattare gli uomini come se fossero cose. Ne sono la prova i campi di concentramento nazisti. Non a caso, Simon Baron-Cohen (La scienza del male: l’empatia e le origini della crudeltà, Milano, Cortina, 2012, pp. 1-5) collegava la sua volontà di capire, da scienziato, «i fattori che inducono le persone a trattare gli altri come oggetti» a un episodio biografico: il racconto di una reale trasformazione di persone in oggetti (quando aveva sette anni, il padre gli disse che i nazisti avevano trasformato gli ebrei in saponette). E non sono sicura che una lezione teorica sia sufficiente a dissuadere un nazista. Quanto alle auto a guida autonoma, cercavo di mettere in discussione il minor numero possibile di concetti impegnativi, come la libertà, considerato che, al momento, la tecnologia si ferma decisamente molto prima. Intendevo perciò "senso comune" nel suo significato più ristretto, essendo fuori dalla portata delle macchine già quello, oggi. Tra l'altro, per restare di nuovo a Kant, solo gli esseri umani sono in grado di agire non solo secondo leggi, ma altresì secondo la rappresentazione di leggi, da rispettare o violare. Concordo anche sull'insensatezza dell'etica dell'IA, ma ritengo, come ho provato ad argomentare nell'articolo che vi ho sottoposto, che la narrazione sull'etica dell'IA assecondi sì alcune tendenze umane spontanee, ma sia deliberatamente costruita e diffusa per interesse. Scusate, ho già scritto troppo e malamente. Spero che avremo modo di parlarne di persona. Un saluto, Daniela ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Giacomo Tesio <giacomo@tesio.it> Inviato: domenica 30 ottobre 2022 12:34 A: Enrico Nardelli; Nexa Oggetto: Re: [nexa] [DKIM Failed] Re: "It’s time to admit self-driving cars aren’t going to happen" Ciao Enrico, Daniela e Nexa. Grazie per questa splendida conversazione. On October 29, 2022 4:38:13 PM UTC, Enrico Nardelli wrote:
in contesti in qualche modo "chiusi" tali sistemi possono essere superiori agli esseri umani, mentre in situazioni "generaliste" le loro prestazioni continuano a rimanere indietro.
Vi sono almeno due problemi in questa frase Enrico: 1. la riduzione della persona ad una funzione 2. la riduzione del problema ad una questione di complessita computazionale Nessuna cosa che l'uomo costruisce può essere paragonata (e dunque essere qualificata come "superiore") all'uomo. Non è solo una questione etica o politica, ma proprio ontologica. Chi costruisce un artefatto, esprime sé stesso, la proprie idee ee i propri interessi di quel momento. Ma una volta costruito, l'artefatto ne rimane espressione invariabile (se non secondo le regole impostegli da quella stesaa volontà) e continua ad applicare quella volontà al mondo, fino ad ulteriore intervento umano (che si tratti di spegnerlo, romperlo o modificarlo). L'artefice invece ha una libertà che l'artefatto non può avere e che non gli può essere attribuita (così come una responsabilità) senza prima aver dimostrato non solo che è in grado di simulare intelligenza, ma che è dotato di libero arbitrio. L'artefice può cambiare idea. L'artefatto non ha idee. Dunque un artefatto è ontologicamente... una cosa. "Superiore all'uomo" non sarà mai, neanche in contesti chiusi. E questo perché l'uomo non esiste per svolgere una funzione. L'uomo è autonomo, l'artrfatto no. Questo significa che ha SEMPRE la possibilità di alterare (e scardinare) le regole di funzionamento del sistema cibernetico in cii opera, rendendolo imprevedibile. Può essere convinto a non esercitare questa autonomia, "perché non è giusto", "perché il padrone è buono", "perché we shall do no evil", "perché funziona così", per paura etc... Ma continua ontologicamente ad essere autonomo. Lo so, sembra una lunga supercazzola per due parole, ma l'uso di certe riduzioni (soprattutto da parte di figure autorevoli come te) alimenta l'alienazione cibernetica di molti. Alienazione che consiste nel processo di riduzione dell'autonomia delle persone sia attraverso la loro automatizione (pensa al burocrate senza compassione) sia attraverso l'antropomorfizzazione dell'automatismo che viene presentato come "autonomo" e antropomorfo.
Il 29/10/2022 08:00, Daniela Tafani ha scritto:
Abbiamo il senso comune, che vale molto di più dell'essere precisi.
Soprattutto abbiamo il buon senso (che è cosa sempre meno comune, purtroppo). Non siamo solo capaci di prevedere conseguenze, ma di empatizzare con chi sarà affetto da tali conseguenze. Quand'anche riuscissimo a superare i limiti computazionali che impediscono la previsione potremmo ottenere un "senso comune" applicato meccanicamente. Un "senso comune" indipendente dalla comunità. Un "senso comune" immutabile, che non può evolvere se non nel solco del programma (ovvero degli interessi di chi l'ha creato). Un "sensi comune" privo di "senso" giacché le macchine elaborano dati cui solo la mente umana può attribuire un significato. Non è dunque un problema di quantità, di disponibilità di dati o di potenza di calcolo. È una questione di essenza. Gli automatismi trasformano meccanicamente dati, non informazioni. Segni privi di un significato intrinseco, che solo l'uomo vi può attribuire. E non parlo solo dell'input o dell'output: il software stesso è privo di un significato intrinseco, tant'è che processori diversi reagiscono a segni diversi nello stesso modo e a segni uguali in modo diverso. E tant'è che possiamo persino progettare macchine per reagire in un determinato modo a segni (dati) cui non proviamo nemmeno ad attribuire un significato. Acquisire questa consapevolezza ha profonde implicazioni pratiche. Per esempio rende evidente l'assurdità di parlare di "etica delle AI" o di "Explainable AI". Il software è debuggabile. Ciò che puoi spiegare al limite sono le intenzioni e gli errori di chi l'ha scritto. E quando non è perfettamente debuggabile, allora è da buttare, perché troppo pericoloso: la sua esecuzione è letteralmente "irresponsabile". Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202210301134080621907...
Forse, piu' che a trattare uomini come oggetti, l'errore e' pensarli come sommatoria molto semplificata di una serie di attivita'. Ecco l'errore con la guida autonoma: pensare che un autista vada da A a B col suo camion, e quindi possa essere sostituito. Ma quell'autista fa molto di piu': si occupa della sicurezza delle merci, partecipa attivamente al controllo qualita' dei pezzi, disbriga una serie di requisiti contabili/fiscali/normativi, e posso continuare a lungo con un elenco mirato sulla professione "autista". Lascio perdere che la persona non e' solo autista ma molto piu', ovviamente. Quando pensiamo ad una professione come sommatoria di attivita' standardizzabili, apriamo la strada al secondo errore, quello di pensare in termini sostitutivi invece che complementari. Saluti Rob ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Daniela Tafani <daniela.tafani@unipi.it> Inviato: domenica 30 ottobre 2022 09:36:58 A: Giacomo Tesio; Enrico Nardelli; Nexa Oggetto: Re: [nexa] [DKIM Failed] Re: "It’s time to admit self-driving cars aren’t going to happen" Grazie a voi per tutte queste considerazioni. Concordo con te, Giacomo. Credo però che la riduzione degli uomini a cose sia un gesto politico, più che un errore teorico. Fattualmente, è sempre possibile trattare gli uomini come se fossero cose. Ne sono la prova i campi di concentramento nazisti. Non a caso, Simon Baron-Cohen (La scienza del male: l’empatia e le origini della crudeltà, Milano, Cortina, 2012, pp. 1-5) collegava la sua volontà di capire, da scienziato, «i fattori che inducono le persone a trattare gli altri come oggetti» a un episodio biografico: il racconto di una reale trasformazione di persone in oggetti (quando aveva sette anni, il padre gli disse che i nazisti avevano trasformato gli ebrei in saponette). E non sono sicura che una lezione teorica sia sufficiente a dissuadere un nazista. Quanto alle auto a guida autonoma, cercavo di mettere in discussione il minor numero possibile di concetti impegnativi, come la libertà, considerato che, al momento, la tecnologia si ferma decisamente molto prima. Intendevo perciò "senso comune" nel suo significato più ristretto, essendo fuori dalla portata delle macchine già quello, oggi. Tra l'altro, per restare di nuovo a Kant, solo gli esseri umani sono in grado di agire non solo secondo leggi, ma altresì secondo la rappresentazione di leggi, da rispettare o violare. Concordo anche sull'insensatezza dell'etica dell'IA, ma ritengo, come ho provato ad argomentare nell'articolo che vi ho sottoposto, che la narrazione sull'etica dell'IA assecondi sì alcune tendenze umane spontanee, ma sia deliberatamente costruita e diffusa per interesse. Scusate, ho già scritto troppo e malamente. Spero che avremo modo di parlarne di persona. Un saluto, Daniela ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Giacomo Tesio <giacomo@tesio.it> Inviato: domenica 30 ottobre 2022 12:34 A: Enrico Nardelli; Nexa Oggetto: Re: [nexa] [DKIM Failed] Re: "It’s time to admit self-driving cars aren’t going to happen" Ciao Enrico, Daniela e Nexa. Grazie per questa splendida conversazione. On October 29, 2022 4:38:13 PM UTC, Enrico Nardelli wrote:
in contesti in qualche modo "chiusi" tali sistemi possono essere superiori agli esseri umani, mentre in situazioni "generaliste" le loro prestazioni continuano a rimanere indietro.
Vi sono almeno due problemi in questa frase Enrico: 1. la riduzione della persona ad una funzione 2. la riduzione del problema ad una questione di complessita computazionale Nessuna cosa che l'uomo costruisce può essere paragonata (e dunque essere qualificata come "superiore") all'uomo. Non è solo una questione etica o politica, ma proprio ontologica. Chi costruisce un artefatto, esprime sé stesso, la proprie idee ee i propri interessi di quel momento. Ma una volta costruito, l'artefatto ne rimane espressione invariabile (se non secondo le regole impostegli da quella stesaa volontà) e continua ad applicare quella volontà al mondo, fino ad ulteriore intervento umano (che si tratti di spegnerlo, romperlo o modificarlo). L'artefice invece ha una libertà che l'artefatto non può avere e che non gli può essere attribuita (così come una responsabilità) senza prima aver dimostrato non solo che è in grado di simulare intelligenza, ma che è dotato di libero arbitrio. L'artefice può cambiare idea. L'artefatto non ha idee. Dunque un artefatto è ontologicamente... una cosa. "Superiore all'uomo" non sarà mai, neanche in contesti chiusi. E questo perché l'uomo non esiste per svolgere una funzione. L'uomo è autonomo, l'artrfatto no. Questo significa che ha SEMPRE la possibilità di alterare (e scardinare) le regole di funzionamento del sistema cibernetico in cii opera, rendendolo imprevedibile. Può essere convinto a non esercitare questa autonomia, "perché non è giusto", "perché il padrone è buono", "perché we shall do no evil", "perché funziona così", per paura etc... Ma continua ontologicamente ad essere autonomo. Lo so, sembra una lunga supercazzola per due parole, ma l'uso di certe riduzioni (soprattutto da parte di figure autorevoli come te) alimenta l'alienazione cibernetica di molti. Alienazione che consiste nel processo di riduzione dell'autonomia delle persone sia attraverso la loro automatizione (pensa al burocrate senza compassione) sia attraverso l'antropomorfizzazione dell'automatismo che viene presentato come "autonomo" e antropomorfo.
Il 29/10/2022 08:00, Daniela Tafani ha scritto:
Abbiamo il senso comune, che vale molto di più dell'essere precisi.
Soprattutto abbiamo il buon senso (che è cosa sempre meno comune, purtroppo). Non siamo solo capaci di prevedere conseguenze, ma di empatizzare con chi sarà affetto da tali conseguenze. Quand'anche riuscissimo a superare i limiti computazionali che impediscono la previsione potremmo ottenere un "senso comune" applicato meccanicamente. Un "senso comune" indipendente dalla comunità. Un "senso comune" immutabile, che non può evolvere se non nel solco del programma (ovvero degli interessi di chi l'ha creato). Un "sensi comune" privo di "senso" giacché le macchine elaborano dati cui solo la mente umana può attribuire un significato. Non è dunque un problema di quantità, di disponibilità di dati o di potenza di calcolo. È una questione di essenza. Gli automatismi trasformano meccanicamente dati, non informazioni. Segni privi di un significato intrinseco, che solo l'uomo vi può attribuire. E non parlo solo dell'input o dell'output: il software stesso è privo di un significato intrinseco, tant'è che processori diversi reagiscono a segni diversi nello stesso modo e a segni uguali in modo diverso. E tant'è che possiamo persino progettare macchine per reagire in un determinato modo a segni (dati) cui non proviamo nemmeno ad attribuire un significato. Acquisire questa consapevolezza ha profonde implicazioni pratiche. Per esempio rende evidente l'assurdità di parlare di "etica delle AI" o di "Explainable AI". Il software è debuggabile. Ciò che puoi spiegare al limite sono le intenzioni e gli errori di chi l'ha scritto. E quando non è perfettamente debuggabile, allora è da buttare, perché troppo pericoloso: la sua esecuzione è letteralmente "irresponsabile". Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202210301134080621907...
On October 30, 2022 1:45:32 PM UTC, Roberto Dolci <rob.dolci@aizoon.us> wrote:
Forse, piu' che a trattare uomini come oggetti, l'errore e' pensarli come sommatoria molto semplificata di una serie di attivita'.
No, l'obiettivo è proprio ridurre le persone a cose. Per farlo, uno degli strumenti fondamentali è l'antropomorfizzazione delle cose (quando non la loro divinizzazione, dal vitello d'oro alla "AI superiore all'uomo") Ad esempio tu parli di "guida autonoma" laddove non c'è alcuna autonomia. Sarebbe più appropriato parlare di "guida automatica" e tu certamente sai perché, ma usi automaticamente (ovvero acriticamente) un termine inappropriato perché difuso, rafforzando l'alienazione cibernetica che produce in chi non è in grado di cogliere l'errore. La riduzione dell'autonomia delle persone, l'alienazione cibernetica, passa dalla loro mente: - bisogna convincerle di essere ingranaggi sostituibili da un lato - bisogna convincerle che gli automatismi sono "trustworthy", più affidabili degli altri umani Che si tratti di convincere il Garante della Privacy a vantarsi in pubblico di Alexa che lo sveglia e gli dice le notizie che deve sapere, o un parlamentare che la "guida autonoma" è più affidabile di quella responsabile, o un autista che se non fa il bravo, se anche solo pensa di scioperare, perderà il lavoro perché sostituibile con delle macchine. O ancora di convincere il Preside che i servizi dei GAFAM sono gratuiti. O un Ministro che non ci sono alternative. L'obiettivo è SEMPRE ridurre l'autonomia delle persone. Parlare di "intelligenza artificiale", "guida autonoma", "apprendimento profondo", "reti neurali" etc, serve solo ed escusivamente questo scopo. Ridurre le persone a cose. Convincerle di ESSERE cose. Giacomo
Ecco l'errore con la guida autonoma: pensare che un autista vada da A a B col suo camion, e quindi possa essere sostituito. Ma quell'autista fa molto di piu': si occupa della sicurezza delle merci, partecipa attivamente al controllo qualita' dei pezzi, disbriga una serie di requisiti contabili/fiscali/normativi, e posso continuare a lungo con un elenco mirato sulla professione "autista". Lascio perdere che la persona non e' solo autista ma molto piu', ovviamente.
Quando pensiamo ad una professione come sommatoria di attivita' standardizzabili, apriamo la strada al secondo errore, quello di pensare in termini sostitutivi invece che complementari.
Saluti
Rob
________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Daniela Tafani <daniela.tafani@unipi.it> Inviato: domenica 30 ottobre 2022 09:36:58 A: Giacomo Tesio; Enrico Nardelli; Nexa Oggetto: Re: [nexa] [DKIM Failed] Re: "It’s time to admit self-driving cars aren’t going to happen"
Grazie a voi per tutte queste considerazioni.
Concordo con te, Giacomo.
Credo però che la riduzione degli uomini a cose sia un gesto politico, più che un errore teorico.
Fattualmente, è sempre possibile trattare gli uomini come se fossero cose. Ne sono la prova i campi di concentramento nazisti.
Non a caso, Simon Baron-Cohen (La scienza del male: l’empatia e le origini della crudeltà, Milano, Cortina, 2012, pp. 1-5)
collegava la sua volontà di capire, da scienziato,
«i fattori che inducono le persone a trattare gli altri come oggetti»
a un episodio biografico: il racconto di una reale trasformazione di persone in oggetti
(quando aveva sette anni, il padre gli disse che i nazisti avevano trasformato gli ebrei in saponette).
E non sono sicura che una lezione teorica sia sufficiente a dissuadere un nazista.
Quanto alle auto a guida autonoma, cercavo di mettere in discussione il minor numero possibile di concetti impegnativi, come la libertà,
considerato che, al momento, la tecnologia si ferma decisamente molto prima.
Intendevo perciò "senso comune" nel suo significato più ristretto, essendo fuori dalla portata delle macchine già quello, oggi.
Tra l'altro, per restare di nuovo a Kant, solo gli esseri umani sono in grado di agire non solo secondo leggi,
ma altresì secondo la rappresentazione di leggi, da rispettare o violare.
Concordo anche sull'insensatezza dell'etica dell'IA, ma ritengo, come ho provato ad argomentare nell'articolo che vi ho sottoposto, che la narrazione sull'etica dell'IA
assecondi sì alcune tendenze umane spontanee,
ma sia deliberatamente costruita e diffusa per interesse.
Scusate, ho già scritto troppo e malamente. Spero che avremo modo di parlarne di persona.
Un saluto, Daniela
________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Giacomo Tesio <giacomo@tesio.it> Inviato: domenica 30 ottobre 2022 12:34 A: Enrico Nardelli; Nexa Oggetto: Re: [nexa] [DKIM Failed] Re: "It’s time to admit self-driving cars aren’t going to happen"
Ciao Enrico, Daniela e Nexa.
Grazie per questa splendida conversazione.
On October 29, 2022 4:38:13 PM UTC, Enrico Nardelli wrote:
in contesti in qualche modo "chiusi" tali sistemi possono essere superiori agli esseri umani, mentre in situazioni "generaliste" le loro prestazioni continuano a rimanere indietro.
Vi sono almeno due problemi in questa frase Enrico:
1. la riduzione della persona ad una funzione 2. la riduzione del problema ad una questione di complessita computazionale
Nessuna cosa che l'uomo costruisce può essere paragonata (e dunque essere qualificata come "superiore") all'uomo.
Non è solo una questione etica o politica, ma proprio ontologica.
Chi costruisce un artefatto, esprime sé stesso, la proprie idee ee i propri interessi di quel momento.
Ma una volta costruito, l'artefatto ne rimane espressione invariabile (se non secondo le regole impostegli da quella stesaa volontà) e continua ad applicare quella volontà al mondo, fino ad ulteriore intervento umano (che si tratti di spegnerlo, romperlo o modificarlo).
L'artefice invece ha una libertà che l'artefatto non può avere e che non gli può essere attribuita (così come una responsabilità) senza prima aver dimostrato non solo che è in grado di simulare intelligenza, ma che è dotato di libero arbitrio.
L'artefice può cambiare idea. L'artefatto non ha idee.
Dunque un artefatto è ontologicamente... una cosa.
"Superiore all'uomo" non sarà mai, neanche in contesti chiusi.
E questo perché l'uomo non esiste per svolgere una funzione.
L'uomo è autonomo, l'artrfatto no.
Questo significa che ha SEMPRE la possibilità di alterare (e scardinare) le regole di funzionamento del sistema cibernetico in cii opera, rendendolo imprevedibile.
Può essere convinto a non esercitare questa autonomia, "perché non è giusto", "perché il padrone è buono", "perché we shall do no evil", "perché funziona così", per paura etc...
Ma continua ontologicamente ad essere autonomo.
Lo so, sembra una lunga supercazzola per due parole, ma l'uso di certe riduzioni (soprattutto da parte di figure autorevoli come te) alimenta l'alienazione cibernetica di molti.
Alienazione che consiste nel processo di riduzione dell'autonomia delle persone sia attraverso la loro automatizione (pensa al burocrate senza compassione) sia attraverso l'antropomorfizzazione dell'automatismo che viene presentato come "autonomo" e antropomorfo.
Il 29/10/2022 08:00, Daniela Tafani ha scritto:
Abbiamo il senso comune, che vale molto di più dell'essere precisi.
Soprattutto abbiamo il buon senso (che è cosa sempre meno comune, purtroppo).
Non siamo solo capaci di prevedere conseguenze, ma di empatizzare con chi sarà affetto da tali conseguenze.
Quand'anche riuscissimo a superare i limiti computazionali che impediscono la previsione potremmo ottenere un "senso comune" applicato meccanicamente.
Un "senso comune" indipendente dalla comunità. Un "senso comune" immutabile, che non può evolvere se non nel solco del programma (ovvero degli interessi di chi l'ha creato).
Un "sensi comune" privo di "senso" giacché le macchine elaborano dati cui solo la mente umana può attribuire un significato.
Non è dunque un problema di quantità, di disponibilità di dati o di potenza di calcolo.
È una questione di essenza. Gli automatismi trasformano meccanicamente dati, non informazioni.
Segni privi di un significato intrinseco, che solo l'uomo vi può attribuire. E non parlo solo dell'input o dell'output: il software stesso è privo di un significato intrinseco, tant'è che processori diversi reagiscono a segni diversi nello stesso modo e a segni uguali in modo diverso.
E tant'è che possiamo persino progettare macchine per reagire in un determinato modo a segni (dati) cui non proviamo nemmeno ad attribuire un significato.
Acquisire questa consapevolezza ha profonde implicazioni pratiche.
Per esempio rende evidente l'assurdità di parlare di "etica delle AI" o di "Explainable AI".
Il software è debuggabile. Ciò che puoi spiegare al limite sono le intenzioni e gli errori di chi l'ha scritto.
E quando non è perfettamente debuggabile, allora è da buttare, perché troppo pericoloso: la sua esecuzione è letteralmente "irresponsabile".
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202210301134080621907...
On October 30, 2022 1:36:58 PM UTC, Daniela Tafani wrote:
Credo però che la riduzione degli uomini a cose sia un gesto politico, più che un errore teorico.
È naturalmente un gesto politico, ma necesita di un errore teorico per giustificarsi e normalizzarsi.
E non sono sicura che una lezione teorica sia sufficiente a dissuadere un nazista.
Come non è sufficiente a dissuadere uno dei tanti lobbisti di Google & friends. Non è per dissuadere chi trae vantaggio dall'errore teorico, che dobbiamo smascherarlo come tale. È per allertare i tantissimi che se la bevono.
Quanto alle auto a guida autonoma, cercavo di mettere in discussione il minor numero possibile di concetti impegnativi, come la libertà, considerato che, al momento, la tecnologia si ferma decisamente molto prima.
Solo se la consideri in isolamento. Se ragioni in termini di agenti cibernetici invece che dei singoli elementi che li costituiscono, se non perdi di vista gli uomini dietro l'automatismo, che si chiami "AI", Google Classroom o 9front, la libertà diventa rilevante. Compreso che l'automatismo non ce l'ha, dobbiamo chiederci chi poteva scegliere o creare un automatismo diverso, perché non l'ha fatto e perché eventualmente cerca di nascondere tale libertà e responsabilità.
Concordo anche sull'insensatezza dell'etica dell'IA, ma ritengo, come ho provato ad argomentare nell'articolo che vi ho sottoposto, che la narrazione sull'etica dell'IA assecondi sì alcune tendenze umane spontanee, ma sia deliberatamente costruita e diffusa per interesse.
Ho trovato talmente illuminante ed importante il tuo articolo da non avere trovato ancora il tempo di risponderti come merita. Posso però ringraziarti per averlo scritto e sperare che abbia ampia diffusione. Giacomo
Sì, hai ragione, Giacomo: lo smascheramento delle imposture sul piano teorico è utile, naturalmente, è un atto di resistenza. Volevo solo dire che mi sembra sempre opportuno distinguere i piani: - empirico: ci sono cose (alcuni sistemi di IA) che vengono presentate come se potessero svolgere specifiche attività umane, come guidare un'auto nel traffico cittadino o comprendere un discorso e rispondere sulla base di tale comprensione; - le cose non sono persone e le persone non sono cose - assiologico: le persone hanno un valore incondizionato, una dignità, le cose no - morale: le persone non devono essere trattate come cose - politico: trattare le persone come cose equivale a privarle di ogni diritto (ad esempio, etichettandole e affidando a sistemi di ML decisioni che abbiano effetti rilevanti sulle loro vite) - giuridico: la responsabilità per i danni causati da cose che sono prodotti (e i sistemi di IA lo sono senz'altro) è da ascriversi nel rispetto del principio cuius commoda, eius et incommoda; l'eventuale impossibilità di risalire alla responsabilità è una forma di negligenza del produttore. Con il mio accenno al senso comune, restavo al livello più basso, al piano meramente empirico, per sostenere che l'attuale tecnologia non consente la guida autonoma, come non può riprodurre la comprensione del linguaggio. Condivido tutto quello che hai scritto, ma credo che la distinzione dei piani sia a volte utile: mi pare che gli studenti colgano benissimo l'enormità dell'impostura a livello empirico, non appena qualcuno spieghi loro, ad esempio, la distinzione tra manipolare stringhe di testo e comprenderne il significato e che a quel punto tutti gli incantamenti, le imposture o gli atti di ingiustizia e oppressione ai livelli successivi, pur sostenuti dalla narrazione dominante, cadano quasi da soli, come un castello di carte. In ogni caso, dopo aver chiarito che una certa macchina non funziona, si riesce almeno a scansare l'accusa di luddista. Grazie di questa conversazione. Un saluto, Daniela ________________________________ Da: Giacomo Tesio <giacomo@tesio.it> Inviato: domenica 30 ottobre 2022 15:30 A: Daniela Tafani; Enrico Nardelli; Nexa Oggetto: Re: [nexa] [DKIM Failed] Re: "It’s time to admit self-driving cars aren’t going to happen" On October 30, 2022 1:36:58 PM UTC, Daniela Tafani wrote:
Credo però che la riduzione degli uomini a cose sia un gesto politico, più che un errore teorico.
È naturalmente un gesto politico, ma necesita di un errore teorico per giustificarsi e normalizzarsi.
E non sono sicura che una lezione teorica sia sufficiente a dissuadere un nazista.
Come non è sufficiente a dissuadere uno dei tanti lobbisti di Google & friends. Non è per dissuadere chi trae vantaggio dall'errore teorico, che dobbiamo smascherarlo come tale. È per allertare i tantissimi che se la bevono.
Quanto alle auto a guida autonoma, cercavo di mettere in discussione il minor numero possibile di concetti impegnativi, come la libertà, considerato che, al momento, la tecnologia si ferma decisamente molto prima.
Solo se la consideri in isolamento. Se ragioni in termini di agenti cibernetici invece che dei singoli elementi che li costituiscono, se non perdi di vista gli uomini dietro l'automatismo, che si chiami "AI", Google Classroom o 9front, la libertà diventa rilevante. Compreso che l'automatismo non ce l'ha, dobbiamo chiederci chi poteva scegliere o creare un automatismo diverso, perché non l'ha fatto e perché eventualmente cerca di nascondere tale libertà e responsabilità.
Concordo anche sull'insensatezza dell'etica dell'IA, ma ritengo, come ho provato ad argomentare nell'articolo che vi ho sottoposto, che la narrazione sull'etica dell'IA assecondi sì alcune tendenze umane spontanee, ma sia deliberatamente costruita e diffusa per interesse.
Ho trovato talmente illuminante ed importante il tuo articolo da non avere trovato ancora il tempo di risponderti come merita. Posso però ringraziarti per averlo scritto e sperare che abbia ampia diffusione. Giacomo
participants (7)
-
alessandro marzocchi -
Antonio -
Daniela Tafani -
Enrico Nardelli -
Giacomo Tesio -
Roberto Dolci -
Stefano Quintarelli