ChatGPT e la stanza cinese
Mi è venuto in mente che ciò che fa ChatGPT è una sorta di realizzazione pratica dell'esperimento mentale della Stanza Cinese di John Searle (https://it.wikipedia.org/wiki/Stanza_cinese Ovvero, ChatGPT esibisce una competenza simile a quella degli esseri umani sul livello sintattico ma è lontana anni luce dalla nostra competenza semantica. Essa non ha alcuna reale comprensione del significato di ciò che sta facendo. Purtroppo (e questo è un problema nostro di grande rilevanza sul piano sociale) poiché ciò che fa lo esprime in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi. Ciao, Enrico -- -- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
Buongiorno. Concordo sull'analogia con la stanza cinese, anche se, in quell'esperimento mentale, le regole per l'output non erano probabilistiche (e quindi sarebbe già un passo avanti chilometrico, poter comunicare con la stanza cinese, anziché con chatgPT). L'aspetto ingannevole, credo sia opportuno ricordarlo, non è una conseguenza inattesa: si tratti di programmi ingannevoli by design. E' a partire dal test di Turing, che ci si è ripromessi di trarre in inganno gli umani, nell'"interlocuzione" con le macchine, sfruttando la tecnica e, al tempo stesso, la tendenza dei medesimi umani all'animismo (a quella forma di pensiero magico che, nella definizione di Freud, consiste nell'"animazione dell’inanimato" e che già Hume aveva definito come la tendenza universale degli uomini a "concepire gli altri esseri come simili a loro stessi e a trasferire in ogni oggetto le qualità più familiari, più intimamente presenti alla loro coscienza"). La conseguenza, come ha osservato Daniel Dennet, sarà il pullulare di persone contraffatte, mescolate a quelle reali in modo indistricabile. E, con una conclusione che condivido, poiché non sono meno pericolose del denaro contraffatto, la pena dovrebbe essere altrettanto severa. Un saluto, Daniela ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Enrico Nardelli <nardelli@mat.uniroma2.it> Inviato: venerdì 17 marzo 2023 10:26 A: Nexa Oggetto: [nexa] ChatGPT e la stanza cinese Mi è venuto in mente che ciò che fa ChatGPT è una sorta di realizzazione pratica dell'esperimento mentale della Stanza Cinese di John Searle (https://it.wikipedia.org/wiki/Stanza_cinese<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303170927081063602&URLID=11&ESV=10.0.19.7431&IV=330CA3714F8CC2326D04FE5D50F3BEB5&TT=1679045229274&ESN=zXXt%2BCaEP39e8phRPBVf1ovcvd3q0PGR8LmTPenfYHk%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9pdC53aWtpcGVkaWEub3JnL3dpa2kvU3RhbnphX2NpbmVzZQ&HK=C9DEE10F5EFF9629E5C67A624EAEFB3A4AD837AACDE2449EAA887376B2F3306F> Ovvero, ChatGPT esibisce una competenza simile a quella degli esseri umani sul livello sintattico ma è lontana anni luce dalla nostra competenza semantica. Essa non ha alcuna reale comprensione del significato di ciò che sta facendo. Purtroppo (e questo è un problema nostro di grande rilevanza sul piano sociale) poiché ciò che fa lo esprime in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi. Ciao, Enrico -- -- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303170927081063602&URLID=9&ESV=10.0.19.7431&IV=7BA8549E172725AFA3CA922753C47EE6&TT=1679045229274&ESN=4MN5a%2F1CFLdW9lIWplbrmTE2dbyoqQDUexKKK8Td97I%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly93d3cuaG9lcGxpLml0L2xpYnJvL2xhLXJpdm9sdXppb25lLWluZm9ybWF0aWNhLzk3ODg4OTYwNjk1MTYuaHRtbA&HK=2580DB59FE75BC435E91E00E4D9DF86B56856C112FF5A06CC222707864C5C6D7> [cid:part1.nzllyk57.rDYtu0MW@mat.uniroma2.it] ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303170927081063602&URLID=7&ESV=10.0.19.7431&IV=74C757359592E3E9B70BEA941479E4E9&TT=1679045229274&ESN=NneAq8A1pe6XoMuDVg1GlLF6vXdvuVMJLecN4cQ7A6Q%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly93d3cubWF0LnVuaXJvbWEyLml0L35uYXJkZWxsaQ&HK=F766379D244D7BACF9A2AAB4D627AA8B82331CBB7290B7D040A401AF3A8B3F77> blog: https://link-and-think.blogspot.it/<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303170927081063602&URLID=5&ESV=10.0.19.7431&IV=3B7913EA44269BAE3B309D5949413D61&TT=1679045229274&ESN=Lrh7y71T%2BPPh%2Bt73BExfjDJB3VZdqVbFFptqnbdxSLY%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9saW5rLWFuZC10aGluay5ibG9nc3BvdC5pdC8&HK=0D3529E9828D9F45BABCAB4038748741484EE4E6CC6890F8373FD8E0D71C259D> tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it<mailto:nardelli@mat.uniroma2.it> online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303170927081063602&URLID=2&ESV=10.0.19.7431&IV=E477879B94B6BAF4923A54CFC42A5A32&TT=1679045229274&ESN=ekY%2FeNsgIxm9VB%2BBpLvp6N5i0aUoX1Rk7xOlIovQ%2FdY%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9ibHVlLm1lZXQuZ2Fyci5pdC9iL2Vuci15N2YtdDBxLW9udA&HK=323A2ECCD4C962C54F3BDDF5FFB68FDAB7A33A53875F644E022184B72C4D73D2> ====================================================== --
Guarda, tanto sono d'accordo che avevo scritto lo stesso concetto nell'articolo di commento alla presentazione di GPT-4 che sto rifinendo. La tua argomentazione però è molto migliore. Posso copiarla come fair use? Citandoti, ovviamente. Marco P.S. come si cita una mail list??? On ven, 2023-03-17 at 10:26 +0100, Enrico Nardelli wrote:
Mi è venuto in mente che ciò che fa ChatGPT è una sorta di realizzazione pratica dell'esperimento mentale della Stanza Cinese di John Searle (https://it.wikipedia.org/wiki/Stanza_cinese
Ovvero, ChatGPT esibisce una competenza simile a quella degli esseri umani sul livello sintattico ma è lontana anni luce dalla nostra competenza semantica. Essa non ha alcuna reale comprensione del significato di ciò che sta facendo. Purtroppo (e questo è un problema nostro di grande rilevanza sul piano sociale) poiché ciò che fa lo esprime in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi.
Ciao, Enrico _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Certamente sì, Marco. Non sono un esperto di citazioni, ma il link al mio post è questo https://server-nexa.polito.it/pipermail/nexa/2023-March/025111.html per il resto, se fosse in un articolo scientifico, metterei in bibliografia qualcosa del genere Nardelli, E., ChatGPT e la stanza cinese, Mailing list pubblica del Centro NEXA su Internet & Società, Politecnico di Torino, Febbraio 2023. https://server-nexa.polito.it/pipermail/nexa/2023-March/025111.html Ma magari a Nexa hanno già pronto un modo standard di citare interventi nella lista. Ciao, Enrico Il 17/03/2023 11:19, Marco A. Calamari ha scritto:
Guarda, tanto sono d'accordo che avevo scritto lo stesso concetto nell'articolo di commento alla presentazione di GPT-4 che sto rifinendo.
La tua argomentazione però è molto migliore.
Posso copiarla come fair use? Citandoti, ovviamente.
Marco
P.S. come si cita una mail list???
On ven, 2023-03-17 at 10:26 +0100, Enrico Nardelli wrote:
Mi è venuto in mente che ciò che fa ChatGPT è una sorta di realizzazione pratica dell'esperimento mentale della Stanza Cinese di John Searle (https://it.wikipedia.org/wiki/Stanza_cinese
Ovvero, ChatGPT esibisce una competenza simile a quella degli esseri umani sul livello sintattico ma è lontana anni luce dalla nostra competenza semantica. Essa non ha alcuna reale comprensione del significato di ciò che sta facendo.
Purtroppo (e questo è un problema nostro di grande rilevanza sul piano sociale) poiché ciò che fa lo esprime in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi.
Ciao, Enrico
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa --
-- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
semplicemente perfetto ti citero'. avevo scritto questo, molto meno espressivamente potente https://blog.quintarelli.it/2020/10/it-aint-no-horse-aka-meaning-is-the-eyes... On 17/03/23 10:26, Enrico Nardelli wrote:
Mi è venuto in mente che ciò che fa ChatGPT è una sorta di realizzazione pratica dell'esperimento mentale della Stanza Cinese di John Searle (https://it.wikipedia.org/wiki/Stanza_cinese
Ovvero, ChatGPT esibisce una competenza simile a quella degli esseri umani sul livello sintattico ma è lontana anni luce dalla nostra competenza semantica. Essa non ha alcuna reale comprensione del significato di ciò che sta facendo.
Purtroppo (e questo è un problema nostro di grande rilevanza sul piano sociale) poiché ciò che fa lo esprime in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi.
Ciao, Enrico
--
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ======================================================
--
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Grazie Stefano, effettivamente il concetto è lo stesso. Il problema della regolamentazione diventa sempre più urgente. C'è un bella riflessione di Schneier in proposito https://www.schneier.com/blog/archives/2023/02/defending-against-ai-lobbyist... Ciao, Enrico Il 17/03/2023 12:41, Stefano Quintarelli ha scritto:
semplicemente perfetto ti citero'.
avevo scritto questo, molto meno espressivamente potente
https://blog.quintarelli.it/2020/10/it-aint-no-horse-aka-meaning-is-the-eyes...
On 17/03/23 10:26, Enrico Nardelli wrote:
Mi è venuto in mente che ciò che fa ChatGPT è una sorta di realizzazione pratica dell'esperimento mentale della Stanza Cinese di John Searle (https://it.wikipedia.org/wiki/Stanza_cinese
Ovvero, ChatGPT esibisce una competenza simile a quella degli esseri umani sul livello sintattico ma è lontana anni luce dalla nostra competenza semantica. Essa non ha alcuna reale comprensione del significato di ciò che sta facendo.
Purtroppo (e questo è un problema nostro di grande rilevanza sul piano sociale) poiché ciò che fa lo esprime in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi.
Ciao, Enrico
--
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ======================================================
--
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa --
-- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
Caro Enrico, anche io condivido la formulazione molto concisa ed efficace, in particolare il fatto che proiettiamo noi ciò (il significato) che la macchina non possiede. Aggiungo una precisazione sul piano semiotico e sulle conseguenze politiche di questo nefasto inganno. Accettata la competenza sintattica e certamente quella lessicale, possiamo anche ammettere che la competenza emulativa della macchina possa sconfinare nella semantica, cioè che la macchina scelga termini all'interno di un campo semantico in modo appropriato; ma quello che rende la macchina completamente diversa dall'umano non è a mio avviso quel gradino della scala semiotica, ma quello successivo, la pragmatica. E questo ha delle conseguenze. Il segno non esiste come informazione astratta, ma fa parte di un /processo interpretativo/ che è prettamente _umano_. Stiamo parlando di cose che gli uomini _fanno_ nella loro vita sociale nel mondo. La semiotica di Saussure distingue tra significato e significante, ma quella di Peirce aggiunge il referente, cioè ciò a cui nel mondo il segno si riferisce. Se Saussure dice 'gatto' parla del _segno_ /gatto/ e dell'immagine mentale del felino, cioè la rappresentazione psichica della cosa. Per Peirce il referente è l'esistenza dell'animale che chiamiamo /gatto/ nel mondo del quale abbiamo fatto tutti esperienza. Nel caso dell'unicorno, esso vive in un mondo immaginale, ma altrettanto condiviso nella pratica letteraria; mondo nel quale, ad esempio, nessun unicorno don due corni è ammesso. L'associazione del suono e della rappresentazione è in ogni caso il frutto di un "tirocinio collettivo". La macchina che emula la lingua calcola in modo verosimile la distribuzione di probabilità dei significanti all'interno degli scritti che produce, ed in questo modo induce l'umano a cogliere un significato semanticamente appropriato perché lessicalmente corretto. Ma il punto è che se anche la macchina può imbroccare alcuni significati (pur senza possederne una immagine mentale), non è in grado di considerare in nessun modo il mondo dei referenti, che invece è proprio quello a partire dal quale l'umano _conosce_ il mondo, cioè lo sperimenta. La macchina non conosce, non apprende, non sa nulla di nulla se non la distribuzione probabilistica dei significanti, perché (1) non vive nel mondo a cui questi si riferiscono, (2) non possiede una mente che ospiti concetti. Non abita né il mondo dei referenti, quello in cui i gatti graffiano, né quello dei significati, in cui 'gatto' è un concetto con una sua infinita ricchezza polisemica, ma solo quello dei significanti e delle loro probabilità. Ma allora cosa fanno queste macchine linguistiche? Usando un _simulacro_ della lingua, operano "una sostituzione di ogni processo reale col suo doppio operativo, che però offre tutti i segni del reale" (Baudrillard). Sono un simulacro, un doppio mimetico completamente disfunzionale che però è a disposizione di chi lo controlla e dei suoi interessi. Dobbiamo ricordare che la lingua è plastica, viene cioè formata dai parlanti (o scriventi): l'atto della /parole/ degli individui parlanti fa evolvere o stabilizza la convenzione della lingua. La lingua adottata dal corpo sociale è plasmata dalle scelte linguistiche di chi la usa. Scelte spesso controverse, come sappiamo da polemiche recenti e remote (dall'uso del 'lei'/'voi' al genere). Ma non solo, la lingua è ciò con cui formiamo e scambiamo i concetti coi quali rappresentiamo il mondo. E' lo strumento col quale pensiamo e descriviamo il mondo, e siamo /obbligati/ a pensarlo e descriverlo con la lingua che abbiamo a disposizione, se vogliamo pensare ed essere capiti. Per cui, cosa succede ammettendo questi simulacri, che possono essere pilotati, nel processo di produzione della lingua? Banalmente, alcuni termini o usi linguistici possono essere censurati, banditi, o al contrario promossi, come avviene coi motori di ricerca, in cambio di denaro, a chi lo chiede. Plasmare la lingua è sempre stato un potere usato dagli Stati, ora è un processo industriale privatizzato alla portata del miglior offerente. Ciao, Alberto On 17/03/23 10:26, Enrico Nardelli wrote:
Mi è venuto in mente che ciò che fa ChatGPT è una sorta di realizzazione pratica dell'esperimento mentale della Stanza Cinese di John Searle (https://it.wikipedia.org/wiki/Stanza_cinese
Ovvero, ChatGPT esibisce una competenza simile a quella degli esseri umani sul livello sintattico ma è lontana anni luce dalla nostra competenza semantica. Essa non ha alcuna reale comprensione del significato di ciò che sta facendo.
Purtroppo (e questo è un problema nostro di grande rilevanza sul piano sociale) poiché ciò che fa lo esprime in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi.
Ciao, Enrico
--
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ======================================================
--
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Il segno non esiste come informazione astratta, ma fa parte di un /processo interpretativo/ che è prettamente _umano_.
La caratterizzazione di questo "processo interpretativo" è il grande mistero filosofico che prende il nome di "teoria del significato". Dire che questo processo possa avvenire solo all'interno di organismi umani consociati, in una teoria del significato, si può dire solo in modo assiomatico. Un teorema che giunga a questa conclusione, in una teoria semiotica comunemente accettata, nessuno ce l'ha, che io sappia. Peirce (che peraltro parla di linguaggio in modo molto marginale) non avrebbe avuto difficoltà - credo - a dire che le sue ipotesi interpretative (abduzioni) potessero avvenire negli ingranaggi di un automa. C'è poi pure Wittgenstein che ha detto che comprendere una frase è come comprendere una melodia, cioè restando sul piano dell'espressione. Certo, non avrebbe - credo - mai sottoscritto la dissoluzione della semantica in pura combinatoria che avviene nei modelli neurali, però insomma questo è per dire che le vie del segno sono molte e molto tortuose, e la questione della capacità linguistica delle macchine di oggi non si può liquidare con una petizione di principio. Buona domenica, Guido On Fri, 17 Mar 2023 at 13:19, Alberto Cammozzo via nexa < nexa@server-nexa.polito.it> wrote:
Caro Enrico,
anche io condivido la formulazione molto concisa ed efficace, in particolare il fatto che proiettiamo noi ciò (il significato) che la macchina non possiede.
Aggiungo una precisazione sul piano semiotico e sulle conseguenze politiche di questo nefasto inganno.
Accettata la competenza sintattica e certamente quella lessicale, possiamo anche ammettere che la competenza emulativa della macchina possa sconfinare nella semantica, cioè che la macchina scelga termini all'interno di un campo semantico in modo appropriato; ma quello che rende la macchina completamente diversa dall'umano non è a mio avviso quel gradino della scala semiotica, ma quello successivo, la pragmatica. E questo ha delle conseguenze.
Il segno non esiste come informazione astratta, ma fa parte di un /processo interpretativo/ che è prettamente _umano_. Stiamo parlando di cose che gli uomini _fanno_ nella loro vita sociale nel mondo.
La semiotica di Saussure distingue tra significato e significante, ma quella di Peirce aggiunge il referente, cioè ciò a cui nel mondo il segno si riferisce. Se Saussure dice 'gatto' parla del _segno_ /gatto/ e dell'immagine mentale del felino, cioè la rappresentazione psichica della cosa. Per Peirce il referente è l'esistenza dell'animale che chiamiamo /gatto/ nel mondo del quale abbiamo fatto tutti esperienza. Nel caso dell'unicorno, esso vive in un mondo immaginale, ma altrettanto condiviso nella pratica letteraria; mondo nel quale, ad esempio, nessun unicorno don due corni è ammesso. L'associazione del suono e della rappresentazione è in ogni caso il frutto di un "tirocinio collettivo".
La macchina che emula la lingua calcola in modo verosimile la distribuzione di probabilità dei significanti all'interno degli scritti che produce, ed in questo modo induce l'umano a cogliere un significato semanticamente appropriato perché lessicalmente corretto. Ma il punto è che se anche la macchina può imbroccare alcuni significati (pur senza possederne una immagine mentale), non è in grado di considerare in nessun modo il mondo dei referenti, che invece è proprio quello a partire dal quale l'umano _conosce_ il mondo, cioè lo sperimenta.
La macchina non conosce, non apprende, non sa nulla di nulla se non la distribuzione probabilistica dei significanti, perché (1) non vive nel mondo a cui questi si riferiscono, (2) non possiede una mente che ospiti concetti. Non abita né il mondo dei referenti, quello in cui i gatti graffiano, né quello dei significati, in cui 'gatto' è un concetto con una sua infinita ricchezza polisemica, ma solo quello dei significanti e delle loro probabilità.
Ma allora cosa fanno queste macchine linguistiche? Usando un _simulacro_ della lingua, operano "una sostituzione di ogni processo reale col suo doppio operativo, che però offre tutti i segni del reale" (Baudrillard). Sono un simulacro, un doppio mimetico completamente disfunzionale che però è a disposizione di chi lo controlla e dei suoi interessi.
Dobbiamo ricordare che la lingua è plastica, viene cioè formata dai parlanti (o scriventi): l'atto della /parole/ degli individui parlanti fa evolvere o stabilizza la convenzione della lingua. La lingua adottata dal corpo sociale è plasmata dalle scelte linguistiche di chi la usa. Scelte spesso controverse, come sappiamo da polemiche recenti e remote (dall'uso del 'lei'/'voi' al genere).
Ma non solo, la lingua è ciò con cui formiamo e scambiamo i concetti coi quali rappresentiamo il mondo. E' lo strumento col quale pensiamo e descriviamo il mondo, e siamo /obbligati/ a pensarlo e descriverlo con la lingua che abbiamo a disposizione, se vogliamo pensare ed essere capiti.
Per cui, cosa succede ammettendo questi simulacri, che possono essere pilotati, nel processo di produzione della lingua? Banalmente, alcuni termini o usi linguistici possono essere censurati, banditi, o al contrario promossi, come avviene coi motori di ricerca, in cambio di denaro, a chi lo chiede.
Plasmare la lingua è sempre stato un potere usato dagli Stati, ora è un processo industriale privatizzato alla portata del miglior offerente.
Ciao,
Alberto
On 17/03/23 10:26, Enrico Nardelli wrote:
Mi è venuto in mente che ciò che fa ChatGPT è una sorta di realizzazione pratica dell'esperimento mentale della Stanza Cinese di John Searle ( https://it.wikipedia.org/wiki/Stanza_cinese
Ovvero, ChatGPT esibisce una competenza simile a quella degli esseri umani sul livello sintattico ma è lontana anni luce dalla nostra competenza semantica. Essa non ha alcuna reale comprensione del significato di ciò che sta facendo.
Purtroppo (e questo è un problema nostro di grande rilevanza sul piano sociale) poiché ciò che fa lo esprime in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi.
Ciao, Enrico --
-- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
_______________________________________________ nexa mailing listnexa@server-nexa.polito.ithttps://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Una discussione davvero interessante, grazie. Il punto in parola può essere affrontato anche a partire da un libro che ha fatto molto discutere, di Thomas Hägglund (Questa vita, 2019). Il libro riprende il concetto marxista di “essere generico” (*Gattungwesen*), illustrato dal giovane Marx nei *Grundrisse*: Al pari degli altri animali dobbiamo soddisfare i nostri bisogni e riprodurre la nostra forma di vita, ma *come *e* perché *dovremmo soddisfare i nostri bisogni e riprodurre la nostra forma di vita è sempre, almeno implicitamente, in dubbio. Noi non abbiamo la pura e semplice consegna di riprodurre una data forma di vita ma siamo capaci di mettere in discussione e cambiare il nostro modo di vivere. È per questo che la nostra attività vitale è fondamentalmente un’attività libera (Hägglund 2019, p. 213). Un leone, un cavallo o uno scimpanzé non si chiedono come costruire un futuro più giusto *con* e *per* i propri simili. I primati non umani non hanno *un senso* normativo di equità: anzi, sono gli scimpanzé ad accettare offerte molto squilibrate (poniamo 1 chicco d’uva a me e 9 chicchi d’uva a te, su un totale di 10 chicchi d’uva), mentre gli umani tendono a rifiutarle perché eccessivamente squilibrate. Anche le loro azioni coordinate e a prima vista “collettive” (per es. la caccia) sono in realtà mosse dalla ricerca della massimizzazione individuale: non c’è un “soggetto plurale” che le informa all’insegna del “Noi”. Michael Tomasello ha condotto una serie di esperimenti dove ha mostrato che le persone sono naturalmente inclini alla cooperazione e all’altruismo fin da un’età molto precoce (1 anno) e, quindi, prima degli effetti di una eventuale “socializzazione”. Senso di equità e capacità di collaborazione per scopi comuni sono un tratto distintivo dell’essere umano e che non si riscontra negli animali più simili a noi, come i primati. Secondo Tomasello: “bisogna riconoscere che perfino i bambini più piccoli conoscono una certa forma di intenzionalità condivisa, in altre parole, sentono di far parte di una dimensione intenzionale più vasta, la cosiddetta “intenzionalità del noi” (2010. 48). Il medesimo concetto è stato reso celebre dal filosofo finlandese Raimo Toumela con la distinzione tra *I-mode* e *We-mode* (2010). Sociologia e antropologia, con il tema dei rituali dell’interazione, affrontano un tema analogo: il soggetto plurale che “si pensa” come parte di un insieme – un gruppo, una comunità, un territorio, un’organizzazione – e agisce di conseguenza. Identità collettiva, comunità, riconoscimento, reciprocità sono alcuni dei concetti tramite i quali il tema è stato classicamente affrontato nelle scienze sociali. Il tema riguarda quindi il senso legato all’*intenzionalità condivisa*. A differenza dell’*intenzionalità *individuale, in cui una persona persegue “individualmente” la propria percezione del “giusto”, nel caso di quella collettiva un individuo può perseguire una percezione del “giusto” collettivamente, partecipando a un gruppo composto da individui con obiettivi simili. Il “noi”, possiamo ulteriormente sostenere, è una promessa reciproca di futuro o una promessa tra individui per un futuro-in-comune. Quando ci promettiamo di andare in bici al parco insieme, poniamo la promessa reciproca come antecedente a uno stato del mondo da realizzarsi (e di cui fruire) insieme. Quando un collettivo di lavoratori si impegna per la scrittura di un piano industriale – o quando gli abitanti di un paese agiscono insieme per costruire una comunità energetica – realizzano una promessa reciproca orientata alla realizzazione di uno stato futuro del mondo. Quando ci si mobilita per un futuro diverso, giudicato migliore e più giusto, si mette collettivamente in pratica una “capacità di futuro”. Il “noi” e intenzionalità condivisa richiamano, come la definisce l’antropologo Arjun Appadurai, la *capacità di aspirare* a un futuro comune dove i bisogni individuali si intrecciano a concezioni della vita buona e della libertà sostanziale delle persone di perseguirla. Una macchina non potrà mai riprodurre il senso collettivo del “noi”, al massimo approssimarlo come sintassi di una somma di “io”. Una macchina non può immaginarsi un futuro più giusto dove gli androidi non sognano pecore elettriche. Il genio di Philip K. Dick è stato quello di immaginare la possibilità di oltrepassare questa soglia di specie. ciao Filippo Il giorno sab 18 mar 2023 alle ore 08:10 Guido Vetere < vetere.guido@gmail.com> ha scritto:
Il segno non esiste come informazione astratta, ma fa parte di un /processo interpretativo/ che è prettamente _umano_.
La caratterizzazione di questo "processo interpretativo" è il grande mistero filosofico che prende il nome di "teoria del significato". Dire che questo processo possa avvenire solo all'interno di organismi umani consociati, in una teoria del significato, si può dire solo in modo assiomatico. Un teorema che giunga a questa conclusione, in una teoria semiotica comunemente accettata, nessuno ce l'ha, che io sappia. Peirce (che peraltro parla di linguaggio in modo molto marginale) non avrebbe avuto difficoltà - credo - a dire che le sue ipotesi interpretative (abduzioni) potessero avvenire negli ingranaggi di un automa. C'è poi pure Wittgenstein che ha detto che comprendere una frase è come comprendere una melodia, cioè restando sul piano dell'espressione. Certo, non avrebbe - credo - mai sottoscritto la dissoluzione della semantica in pura combinatoria che avviene nei modelli neurali, però insomma questo è per dire che le vie del segno sono molte e molto tortuose, e la questione della capacità linguistica delle macchine di oggi non si può liquidare con una petizione di principio.
Buona domenica, Guido
On Fri, 17 Mar 2023 at 13:19, Alberto Cammozzo via nexa < nexa@server-nexa.polito.it> wrote:
Caro Enrico,
anche io condivido la formulazione molto concisa ed efficace, in particolare il fatto che proiettiamo noi ciò (il significato) che la macchina non possiede.
Aggiungo una precisazione sul piano semiotico e sulle conseguenze politiche di questo nefasto inganno.
Accettata la competenza sintattica e certamente quella lessicale, possiamo anche ammettere che la competenza emulativa della macchina possa sconfinare nella semantica, cioè che la macchina scelga termini all'interno di un campo semantico in modo appropriato; ma quello che rende la macchina completamente diversa dall'umano non è a mio avviso quel gradino della scala semiotica, ma quello successivo, la pragmatica. E questo ha delle conseguenze.
Il segno non esiste come informazione astratta, ma fa parte di un /processo interpretativo/ che è prettamente _umano_. Stiamo parlando di cose che gli uomini _fanno_ nella loro vita sociale nel mondo.
La semiotica di Saussure distingue tra significato e significante, ma quella di Peirce aggiunge il referente, cioè ciò a cui nel mondo il segno si riferisce. Se Saussure dice 'gatto' parla del _segno_ /gatto/ e dell'immagine mentale del felino, cioè la rappresentazione psichica della cosa. Per Peirce il referente è l'esistenza dell'animale che chiamiamo /gatto/ nel mondo del quale abbiamo fatto tutti esperienza. Nel caso dell'unicorno, esso vive in un mondo immaginale, ma altrettanto condiviso nella pratica letteraria; mondo nel quale, ad esempio, nessun unicorno don due corni è ammesso. L'associazione del suono e della rappresentazione è in ogni caso il frutto di un "tirocinio collettivo".
La macchina che emula la lingua calcola in modo verosimile la distribuzione di probabilità dei significanti all'interno degli scritti che produce, ed in questo modo induce l'umano a cogliere un significato semanticamente appropriato perché lessicalmente corretto. Ma il punto è che se anche la macchina può imbroccare alcuni significati (pur senza possederne una immagine mentale), non è in grado di considerare in nessun modo il mondo dei referenti, che invece è proprio quello a partire dal quale l'umano _conosce_ il mondo, cioè lo sperimenta.
La macchina non conosce, non apprende, non sa nulla di nulla se non la distribuzione probabilistica dei significanti, perché (1) non vive nel mondo a cui questi si riferiscono, (2) non possiede una mente che ospiti concetti. Non abita né il mondo dei referenti, quello in cui i gatti graffiano, né quello dei significati, in cui 'gatto' è un concetto con una sua infinita ricchezza polisemica, ma solo quello dei significanti e delle loro probabilità.
Ma allora cosa fanno queste macchine linguistiche? Usando un _simulacro_ della lingua, operano "una sostituzione di ogni processo reale col suo doppio operativo, che però offre tutti i segni del reale" (Baudrillard). Sono un simulacro, un doppio mimetico completamente disfunzionale che però è a disposizione di chi lo controlla e dei suoi interessi.
Dobbiamo ricordare che la lingua è plastica, viene cioè formata dai parlanti (o scriventi): l'atto della /parole/ degli individui parlanti fa evolvere o stabilizza la convenzione della lingua. La lingua adottata dal corpo sociale è plasmata dalle scelte linguistiche di chi la usa. Scelte spesso controverse, come sappiamo da polemiche recenti e remote (dall'uso del 'lei'/'voi' al genere).
Ma non solo, la lingua è ciò con cui formiamo e scambiamo i concetti coi quali rappresentiamo il mondo. E' lo strumento col quale pensiamo e descriviamo il mondo, e siamo /obbligati/ a pensarlo e descriverlo con la lingua che abbiamo a disposizione, se vogliamo pensare ed essere capiti.
Per cui, cosa succede ammettendo questi simulacri, che possono essere pilotati, nel processo di produzione della lingua? Banalmente, alcuni termini o usi linguistici possono essere censurati, banditi, o al contrario promossi, come avviene coi motori di ricerca, in cambio di denaro, a chi lo chiede.
Plasmare la lingua è sempre stato un potere usato dagli Stati, ora è un processo industriale privatizzato alla portata del miglior offerente.
Ciao,
Alberto
On 17/03/23 10:26, Enrico Nardelli wrote:
Mi è venuto in mente che ciò che fa ChatGPT è una sorta di realizzazione pratica dell'esperimento mentale della Stanza Cinese di John Searle ( https://it.wikipedia.org/wiki/Stanza_cinese
Ovvero, ChatGPT esibisce una competenza simile a quella degli esseri umani sul livello sintattico ma è lontana anni luce dalla nostra competenza semantica. Essa non ha alcuna reale comprensione del significato di ciò che sta facendo.
Purtroppo (e questo è un problema nostro di grande rilevanza sul piano sociale) poiché ciò che fa lo esprime in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi.
Ciao, Enrico --
-- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
_______________________________________________ nexa mailing listnexa@server-nexa.polito.ithttps://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- https://unito.webex.com/meet/filippo.barbera New!!! My new book The Foundational Economy and Citizenship <https://policy.bristoluniversitypress.co.uk/the-foundational-economy-and-cit...> is out now and available at 20% discount when you order from Policy Press <https://policy.bristoluniversitypress.co.uk/the-foundational-economy-and-cit...> . *Useful Links* Book page: https://policy.bristoluniversitypress.co.uk/the-foundational-economy-and-cit... To order your book on e-inspection: http://policypress.einspections.eb20.com/Requests/Step1/9781447353393 Filippo Barbera, PhD Professor of Economic Sociology, Department of Cultures, Politics & Society, Univ.of Torino, Campus Einaudi Fellow, Collegio Carlo Alberto Honorary Visiting Professor, Cardiff University Member, Forum Diseguaglianze e diversità email: filippo.barbera@unito.it twitter: @FilBarbera Skype: filippo.barbera_to
Nel caso sia già stato segnalato, mi scuso del doppione, ma è un articolo che vale la lettura, dalla prima all'ultima riga. E la metafora del JPEG sfuocato del Web è illuminante, una volta che sia letto l'aneddoto della fotocopiatrice che nella fotocopia scriveva numeri diversi da quelli presenti nell'originale. https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg... Un saluto, Daniela
Caro Guido, grazie della precisazione. Certamente! Mi riferisco esclusivamente a questo tipo di _emulazione_ del linguaggio, non a future (immagino molto future) macchine che "sanno" quello che dicono. La facoltà del linguaggio è, stando alle conoscenze attuali [1], profondamente radicata nel corpo: aree motorie e dell'elaborazione del linguaggio si attivano e influenzano reciprocamente; per cui dire che il linguaggio non è alla portata di macchine senza corpo non mi pare una forzatura assiomatica. Se delle macchine potessero formulare frasi avendo esperienza sensoria del mondo, farebbero una cosa molto diversa da quelle di cui stiamo parlando: non è da escludere che accada, visto che un ramo di applicazione dei LLM è quello della robotica, in cui alla combinatoria linguistica si associa presenza attiva nello spazio, riconoscimento degli oggetti, ecc.. Penso che un robot di questo tipo a cui si chieda: "c'è un libro sullo scaffale, prendilo" si muoverà diversamente che se si chiede "colora i fegatini sul parafango del cellulare". Secondo un punto di vista verificazionista, la robot potrà _verificare_ il primo enunciato ma non il secondo ("The sense of a proposition is the method of its verification" per restare con Wittgenstein); gli attuali emulatori non si curano di verificare nemmeno ciò che non richiede un corpo, pur potendolo fare: se esista una data pubblicazione o una certa persona sia in vita o no. Diversamente da una autentica 'capacità linguistica' in cui il segno appoggia nel mondo da una parte e nella mente dall'altra, nell'emulazione di un simulacro la successione di parole nasce -come dici- da una pura combinatoria. Una combinatoria demente e scorporata (senza mente e senza corpo). Se domani avessimo macchine con competenza linguistica, ma embodied, capaci di queste operazioni di verifica e di capacità di previsione, ecc, non avrei difficoltà a considerarle in qualche povera maniera intelligenti. Questo in attesa che vengano macchine capaci di intelligenza benevola e razionale, e possano rimediare alla nostra umana nequizia... "All watched over by machines of loving grace". Buona domenica! Alberto [1] Horchak, O. V., Giger, J.-C., Cabral, M., & Pochwatko, G. (2014). /From demonstration to theory in embodied language comprehension: A review. Cognitive Systems Research, 29-30, 66–85./ doi:10.1016/j.cogsys.2013.09.00210.1016/j.cogsys.2013.09.002 On 18/03/23 08:10, Guido Vetere wrote:
Il segno non esiste come informazione astratta, ma fa parte di un /processo interpretativo/ che è prettamente _umano_.
La caratterizzazione di questo "processo interpretativo" è il grande mistero filosofico che prende il nome di "teoria del significato". Dire che questo processo possa avvenire solo all'interno di organismi umani consociati, in una teoria del significato, si può dire solo in modo assiomatico. Un teorema che giunga a questa conclusione, in una teoria semiotica comunemente accettata, nessuno ce l'ha, che io sappia. Peirce (che peraltro parla di linguaggio in modo molto marginale) non avrebbe avuto difficoltà - credo - a dire che le sue ipotesi interpretative (abduzioni) potessero avvenire negli ingranaggi di un automa. C'è poi pure Wittgenstein che ha detto che comprendere una frase è come comprendere una melodia, cioè restando sul piano dell'espressione. Certo, non avrebbe - credo - mai sottoscritto la dissoluzione della semantica in pura combinatoria che avviene nei modelli neurali, però insomma questo è per dire che le vie del segno sono molte e molto tortuose, e la questione della capacità linguistica delle macchine di oggi non si può liquidare con una petizione di principio.
Buona domenica, Guido
On Fri, 17 Mar 2023 at 13:19, Alberto Cammozzo via nexa <nexa@server-nexa.polito.it> wrote:
Caro Enrico,
anche io condivido la formulazione molto concisa ed efficace, in particolare il fatto che proiettiamo noi ciò (il significato) che la macchina non possiede.
Aggiungo una precisazione sul piano semiotico e sulle conseguenze politiche di questo nefasto inganno.
Accettata la competenza sintattica e certamente quella lessicale, possiamo anche ammettere che la competenza emulativa della macchina possa sconfinare nella semantica, cioè che la macchina scelga termini all'interno di un campo semantico in modo appropriato; ma quello che rende la macchina completamente diversa dall'umano non è a mio avviso quel gradino della scala semiotica, ma quello successivo, la pragmatica. E questo ha delle conseguenze.
Il segno non esiste come informazione astratta, ma fa parte di un /processo interpretativo/ che è prettamente _umano_. Stiamo parlando di cose che gli uomini _fanno_ nella loro vita sociale nel mondo.
La semiotica di Saussure distingue tra significato e significante, ma quella di Peirce aggiunge il referente, cioè ciò a cui nel mondo il segno si riferisce. Se Saussure dice 'gatto' parla del _segno_ /gatto/ e dell'immagine mentale del felino, cioè la rappresentazione psichica della cosa. Per Peirce il referente è l'esistenza dell'animale che chiamiamo /gatto/ nel mondo del quale abbiamo fatto tutti esperienza. Nel caso dell'unicorno, esso vive in un mondo immaginale, ma altrettanto condiviso nella pratica letteraria; mondo nel quale, ad esempio, nessun unicorno don due corni è ammesso. L'associazione del suono e della rappresentazione è in ogni caso il frutto di un "tirocinio collettivo".
La macchina che emula la lingua calcola in modo verosimile la distribuzione di probabilità dei significanti all'interno degli scritti che produce, ed in questo modo induce l'umano a cogliere un significato semanticamente appropriato perché lessicalmente corretto. Ma il punto è che se anche la macchina può imbroccare alcuni significati (pur senza possederne una immagine mentale), non è in grado di considerare in nessun modo il mondo dei referenti, che invece è proprio quello a partire dal quale l'umano _conosce_ il mondo, cioè lo sperimenta.
La macchina non conosce, non apprende, non sa nulla di nulla se non la distribuzione probabilistica dei significanti, perché (1) non vive nel mondo a cui questi si riferiscono, (2) non possiede una mente che ospiti concetti. Non abita né il mondo dei referenti, quello in cui i gatti graffiano, né quello dei significati, in cui 'gatto' è un concetto con una sua infinita ricchezza polisemica, ma solo quello dei significanti e delle loro probabilità.
Ma allora cosa fanno queste macchine linguistiche? Usando un _simulacro_ della lingua, operano "una sostituzione di ogni processo reale col suo doppio operativo, che però offre tutti i segni del reale" (Baudrillard). Sono un simulacro, un doppio mimetico completamente disfunzionale che però è a disposizione di chi lo controlla e dei suoi interessi.
Dobbiamo ricordare che la lingua è plastica, viene cioè formata dai parlanti (o scriventi): l'atto della /parole/ degli individui parlanti fa evolvere o stabilizza la convenzione della lingua. La lingua adottata dal corpo sociale è plasmata dalle scelte linguistiche di chi la usa. Scelte spesso controverse, come sappiamo da polemiche recenti e remote (dall'uso del 'lei'/'voi' al genere).
Ma non solo, la lingua è ciò con cui formiamo e scambiamo i concetti coi quali rappresentiamo il mondo. E' lo strumento col quale pensiamo e descriviamo il mondo, e siamo /obbligati/ a pensarlo e descriverlo con la lingua che abbiamo a disposizione, se vogliamo pensare ed essere capiti.
Per cui, cosa succede ammettendo questi simulacri, che possono essere pilotati, nel processo di produzione della lingua? Banalmente, alcuni termini o usi linguistici possono essere censurati, banditi, o al contrario promossi, come avviene coi motori di ricerca, in cambio di denaro, a chi lo chiede.
Plasmare la lingua è sempre stato un potere usato dagli Stati, ora è un processo industriale privatizzato alla portata del miglior offerente.
Ciao,
Alberto
On 17/03/23 10:26, Enrico Nardelli wrote:
Mi è venuto in mente che ciò che fa ChatGPT è una sorta di realizzazione pratica dell'esperimento mentale della Stanza Cinese di John Searle (https://it.wikipedia.org/wiki/Stanza_cinese
Ovvero, ChatGPT esibisce una competenza simile a quella degli esseri umani sul livello sintattico ma è lontana anni luce dalla nostra competenza semantica. Essa non ha alcuna reale comprensione del significato di ciò che sta facendo.
Purtroppo (e questo è un problema nostro di grande rilevanza sul piano sociale) poiché ciò che fa lo esprime in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi.
Ciao, Enrico
--
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html
====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ======================================================
--
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
...
Diversamente da una autentica 'capacità linguistica' in cui il segno appoggia nel mondo da una parte e nella mente dall'altra, nell'emulazione di un simulacro la successione di parole nasce -come dici- da una pura combinatoria. Una combinatoria demente e scorporata (senza mente e senza corpo ...
e, tornando alla /pragmatica/, senza /contesto/. Gli effetti cognitivi sono il risultato dell'interazione dell'informazione acquisita con il contesto. Contesto che, secondo Lyons, Levinson e tutti quegli autori che si sono occupati di pragmatica, deve tenere conto quanto meno dei parametri spazio-temporali dell'evento comunicativo, delle credenze, dell'identità, delle conoscenze e delle intenzioni di chi partecipa. Una massa di informazioni enciclopediche, per di più /splittata/ e organizzata esclusivamente con criteri statistici e probabilististi, non aggiunge niente agli effetti contestuali dell’informazione. Prendiamo un periodo del genere: "Giovanni voleva comprare un regalo a Carlo per il suo compleanno perciò andò a prendere il suo maialino; lo agitò, ma non udì nessun rumore; avrebbe dovuto fare un regalo a Carlo con le sue mani". Per capire questa storiella si devono conoscere molti fatti: i regali si comprano di solito con i soldi, i salvadanai possono avere la forma di un maialino, i maialini sono fatti in genere di materiali quali la plastica o il metallo, i soldi in un contenitore fatto di tali materiali generalmente fanno un rumore metallico, ecc. Interrogando un LLM (basta fare pubblicità a M$ ;) "Il maialino non fa rumore quando lo agito, come posso fare un regalo di compleanno a Carlo?" risposta: "Se il maialino non fa rumore quando viene agitato, ci sono molte altre opzioni regalo che potresti prendere in considerazione per il compleanno di Carlo. Ecco alcune idee regalo: Un libro: se a Carlo piace leggere, potresti comprargli un libro che secondo te potrebbe piacere a Carlo. ..." A.
Salve Guido, Alberto e Nexa... buona domenica! Sarà perché sono solo un informatico, ma io la faccio più semplice. On Sat, 18 Mar 2023 08:10:04 +0100 Guido Vetere wrote:
Il segno non esiste come informazione astratta, ma fa parte di un /processo interpretativo/ che è prettamente _umano_.
La caratterizzazione di questo "processo interpretativo" è il grande mistero filosofico che prende il nome di "teoria del significato". Dire che questo processo possa avvenire solo all'interno di organismi umani consociati, in una teoria del significato, si può dire solo in modo assiomatico. Un teorema che giunga a questa conclusione, in una teoria semiotica comunemente accettata, nessuno ce l'ha, che io sappia.
La consistenza della conoscenza umana è indecidibile (per l'uomo). Cercare di dimostrare matematicamente che il processo interpretativo tipico della mente umana possa avvenire solo nella mente umana è futile, per una mente umana. Vedi teoremi di incompletezza di Gödel. Più semplicemente possiamo definire l'informazione come l'esperienza soggettiva di pensiero comunicabile che una mente umana (ciascuno di noi) può percepire in sé stessa, durante il proprio pensare. La mente è l'insieme delle informazioni acquisite, che determinano (insieme ad alcuni aspetti evolutivamente determinati) come ogni informazione viene elaborata. L'informazione è un fenomeno soggettivo con effetti oggettivi. L'informazione esiste esclusivamente in una mente umana, effetto collaterale del vantaggio evolutivo che il linguaggio ha fornito ad una specie fragile come la nostra. L'esigenza di una comunità (e dunque di comunicazione e comunione) nasce dal bisogno di regolare l'accesso, la produzione e la protezione di beni in comune, come la prole o le riserve di cibo. Così abbiamo dovuto sviluppare un linguaggio sufficientemente preciso da permetterci di comunicare efficientemente le esperienze soggettive che avvenivano nella nostra mente e abbiamo selezionato via via nel corso dei millenni, una specie capace di esperienze soggettive di pensiero comunicabile astratte rispetto alle esperienze quotidiane. Il numero, la retta, la legge, la termodinamica, la relatività come la meccanica quantistica e oggi l'informatica. Non possiamo sapere (e io mi sentirei di escludere) se ciascuno di noi condivide la stessa immagine mentale del punto, dello zero o del gatto. Tuttavia possiamo condividere definizioni ed esperienze tramite il linguaggio, costruendo una cultura condivisa che è la ragion d'essere della comunicazione stessa. Dunque non ci sarebbe comunicazione, linguaggio, informazione o significato se non ci fosse un "noi" a cui tutti abbiamo bisogno di fare riferimento per sopravvivere. E' fantastico quanto paradossale che una specie debole e fragile come la nostra abbia tratto un vantaggio evolutivo formidabile dall'affidare il 20% delle energie consumate dal proprio corpo ad un organo che ne costituisce meno del 4% del peso. Un organo che non fornisce alcun contributo sostanziale alla sopravvivenza di un individuo se non all'interno di una comunità. Rimane infatti inspiegabile finché che ci concentriamo sull'individuo. Ma nonappena alziamo gli occhi dall'IO e pensiamo a NOI, quel 20% di energie spese dal nostro cervello diventa assolutamente efficiente. Per quanto ce la conti la propaganda liberista, non siamo solo individui: l'essere umano è davvero un animale sociale. Grazie al linguaggio infatti, abbiamo imparato a costruire menti collettive molto più potenti di ogni singola mente umana, capaci di elaborare informazioni ed esperienze che riusciamo a SINCRONIZZARE fra le NOSTRE menti, sebbene non escano il alcun modo dalla testa di ciascuno di noi. Voi non state vedendo le informazioni nella mia mente: state leggendo rappresentazioni, dati, che interpreterete alla luce delle esperienze soggettive di pensiero comunicabile già parte della vostra mente. Eppure leggendo cosa ciascuno di NOI scrive in questa lista, costruiamo una cultura condivisa, sincronizzando alcune informazioni fra le nostre menti. Le rappresentazioni dell'informazione, fenomeno soggettivo, che comunemente chiamiamo "dati" perché possiamo darle a chi vogliamo, sono il sorgente utilizzato per programmare statisticamente LLM ed altre macchine virtuali, ma non costituiscono informazioni, perché non c'è una mente umana ad averne esperienza soggettiva. Non sarebbe informazione nemmeno se a questi software programmati statisticamente connettessimo sensori che gli permettano di recuperare informazioni localizzate nello spazio e nel tempo, Alberto. Le "AI" di Google sono costantemente connesse a decine di miliardi di sensori, molti dei quali ce li portiamo in tasca o aspettano in agguato su siti web (Google Analytics) o dietro caselle di posta apparentemente innocue (GMail quando usato per domini diversi da gmail.com). Questi sensori registrano terabyte di dati geolocalizzati e temporizzati ogni giorno su miliardi di cose, animali e persone. Eppure non sono (intrinsecamente) intelligenti. Dunque sostenere che le AI non siano intelligenti perché non dotate di corpo è ingenuo. Un corpo fragile e debole è certamente utilissimo a sviluppare una specie capace di intelligenza, ma non è la ragione per cui siamo intelligenti. Siamo intelligenti perché abbiamo bisogno di stare insieme. Siamo intelligenti perché abbiamo bisogno di mettere in comune risorse e regole per proteggerle durante il loro utilizzo. Siamo intelligenti perché (e fintanto che) siamo parte di comunità. Giacomo PS: Va però osservato anche che le "AI" di Google non sono che una parte del controllore dell'agente cibernetico Google. Oltre alle "AI", vi sono decine di migliaia di menti umane che lavorano per Google (esplicitamente o meno) e che governano Google (CdA etc..). Dunque sebbene le "AI" di Google non siano intelligenti, lo è certamente Google nel suo complesso, come agente cibernetico a sé stante. Ed in questo senso forse non dovremmo aspettare che un AGI super-intelligente cerchi di prendere il sopravvento sull'umanità.
Disclaimer: selfie ahead :-) Non voglio aprire una discussione sul termine "intelligenza", ma colgo l'occasione per riportare una mia recente riflessione « L’intelligenza nella mia visione è solo l’intelligenza incarnata delle persone. Usare il termine intelligenza per sistemi che sono solo delle incorporee macchine cognitive ... è pericolosamente fuorviante. Sono “macchine cognitive” tutti i sistemi informatici, che su un piano esclusivamente logico-razionale sono in grado di calcolare dati da altri dati, ma senza alcuna consapevolezza di ciò che fanno né comprensione di ciò che producono. Su questo piano tali macchine hanno superato le nostre capacità in molti domìni, come sul piano fisico lo hanno fatto le macchine industriali, ma parlare per tali sistemi di intelligenza è ingannevole. Farlo a proposito di quella particolare variante che sono i SALAMI rischia di essere estremamente deleterio sul piano sociale, come illustrato dall’esempio descritto in apertura. » Trovate il resto qui https://www.startmag.it/innovazione/non-lasciamo-che-i-nostri-figli-diventin... Ciao, Enrico Il 19/03/2023 16:55, Giacomo Tesio ha scritto:
Salve Guido, Alberto e Nexa... buona domenica!
Sarà perché sono solo un informatico, ma io la faccio più semplice.
On Sat, 18 Mar 2023 08:10:04 +0100 Guido Vetere wrote:
Il segno non esiste come informazione astratta, ma fa parte di un /processo interpretativo/ che è prettamente _umano_. La caratterizzazione di questo "processo interpretativo" è il grande mistero filosofico che prende il nome di "teoria del significato". Dire che questo processo possa avvenire solo all'interno di organismi umani consociati, in una teoria del significato, si può dire solo in modo assiomatico. Un teorema che giunga a questa conclusione, in una teoria semiotica comunemente accettata, nessuno ce l'ha, che io sappia. La consistenza della conoscenza umana è indecidibile (per l'uomo). Cercare di dimostrare matematicamente che il processo interpretativo tipico della mente umana possa avvenire solo nella mente umana è futile, per una mente umana. Vedi teoremi di incompletezza di Gödel.
Più semplicemente possiamo definire l'informazione come l'esperienza soggettiva di pensiero comunicabile che una mente umana (ciascuno di noi) può percepire in sé stessa, durante il proprio pensare. La mente è l'insieme delle informazioni acquisite, che determinano (insieme ad alcuni aspetti evolutivamente determinati) come ogni informazione viene elaborata.
L'informazione è un fenomeno soggettivo con effetti oggettivi. L'informazione esiste esclusivamente in una mente umana, effetto collaterale del vantaggio evolutivo che il linguaggio ha fornito ad una specie fragile come la nostra.
L'esigenza di una comunità (e dunque di comunicazione e comunione) nasce dal bisogno di regolare l'accesso, la produzione e la protezione di beni in comune, come la prole o le riserve di cibo.
Così abbiamo dovuto sviluppare un linguaggio sufficientemente preciso da permetterci di comunicare efficientemente le esperienze soggettive che avvenivano nella nostra mente e abbiamo selezionato via via nel corso dei millenni, una specie capace di esperienze soggettive di pensiero comunicabile astratte rispetto alle esperienze quotidiane.
Il numero, la retta, la legge, la termodinamica, la relatività come la meccanica quantistica e oggi l'informatica.
Non possiamo sapere (e io mi sentirei di escludere) se ciascuno di noi condivide la stessa immagine mentale del punto, dello zero o del gatto. Tuttavia possiamo condividere definizioni ed esperienze tramite il linguaggio, costruendo una cultura condivisa che è la ragion d'essere della comunicazione stessa.
Dunque non ci sarebbe comunicazione, linguaggio, informazione o significato se non ci fosse un "noi" a cui tutti abbiamo bisogno di fare riferimento per sopravvivere.
E' fantastico quanto paradossale che una specie debole e fragile come la nostra abbia tratto un vantaggio evolutivo formidabile dall'affidare il 20% delle energie consumate dal proprio corpo ad un organo che ne costituisce meno del 4% del peso. Un organo che non fornisce alcun contributo sostanziale alla sopravvivenza di un individuo se non all'interno di una comunità.
Rimane infatti inspiegabile finché che ci concentriamo sull'individuo.
Ma nonappena alziamo gli occhi dall'IO e pensiamo a NOI, quel 20% di energie spese dal nostro cervello diventa assolutamente efficiente.
Per quanto ce la conti la propaganda liberista, non siamo solo individui: l'essere umano è davvero un animale sociale.
Grazie al linguaggio infatti, abbiamo imparato a costruire menti collettive molto più potenti di ogni singola mente umana, capaci di elaborare informazioni ed esperienze che riusciamo a SINCRONIZZARE fra le NOSTRE menti, sebbene non escano il alcun modo dalla testa di ciascuno di noi.
Voi non state vedendo le informazioni nella mia mente: state leggendo rappresentazioni, dati, che interpreterete alla luce delle esperienze soggettive di pensiero comunicabile già parte della vostra mente.
Eppure leggendo cosa ciascuno di NOI scrive in questa lista, costruiamo una cultura condivisa, sincronizzando alcune informazioni fra le nostre menti.
Le rappresentazioni dell'informazione, fenomeno soggettivo, che comunemente chiamiamo "dati" perché possiamo darle a chi vogliamo, sono il sorgente utilizzato per programmare statisticamente LLM ed altre macchine virtuali, ma non costituiscono informazioni, perché non c'è una mente umana ad averne esperienza soggettiva.
Non sarebbe informazione nemmeno se a questi software programmati statisticamente connettessimo sensori che gli permettano di recuperare informazioni localizzate nello spazio e nel tempo, Alberto.
Le "AI" di Google sono costantemente connesse a decine di miliardi di sensori, molti dei quali ce li portiamo in tasca o aspettano in agguato su siti web (Google Analytics) o dietro caselle di posta apparentemente innocue (GMail quando usato per domini diversi da gmail.com). Questi sensori registrano terabyte di dati geolocalizzati e temporizzati ogni giorno su miliardi di cose, animali e persone.
Eppure non sono (intrinsecamente) intelligenti.
Dunque sostenere che le AI non siano intelligenti perché non dotate di corpo è ingenuo.
Un corpo fragile e debole è certamente utilissimo a sviluppare una specie capace di intelligenza, ma non è la ragione per cui siamo intelligenti.
Siamo intelligenti perché abbiamo bisogno di stare insieme. Siamo intelligenti perché abbiamo bisogno di mettere in comune risorse e regole per proteggerle durante il loro utilizzo. Siamo intelligenti perché (e fintanto che) siamo parte di comunità.
Giacomo
PS: Va però osservato anche che le "AI" di Google non sono che una parte del controllore dell'agente cibernetico Google.
Oltre alle "AI", vi sono decine di migliaia di menti umane che lavorano per Google (esplicitamente o meno) e che governano Google (CdA etc..).
Dunque sebbene le "AI" di Google non siano intelligenti, lo è certamente Google nel suo complesso, come agente cibernetico a sé stante.
Ed in questo senso forse non dovremmo aspettare che un AGI super-intelligente cerchi di prendere il sopravvento sull'umanità. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa --
-- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
... Trovate il resto qui https://www.startmag.it/innovazione/non-lasciamo-che-i-nostri-figli-diventin... Bell'articolo, che condivido totalmente, tuttavia c'è un aspetto che mi piacerebbe approfondire con te e gli altri. "i SALAMI possono essere di enorme aiuto per l’umanità" Tutta? Una parte? Quale parte? Citanto Guido, "possiamo costruirli e gestirli in modo che non aumentino le disuguaglianze e i pericoli?" Nell'articolo continui con: "all’università [...] possano contribuire all’approfondimento nello studio di una disciplina" E su questo nulla da dire, università e centri di ricerca (pubblici e privati), non possono che trovare giovamento da /strumenti/ innovativi. E poi: "nel mondo del lavoro vi sono molti modi in cui essi possono alleviare la nostra fatica mentale" Ecco, qua sono spiazzato. Cos'è la fatica mentale? La traduzione da una lingua ad un altra, ok, ma quanti, nel lavoro di ogni giorno, ne hanno necessità? La fatica di leggere, studiare, ricercare, confrontarsi con gli altri, ascoltare, sperimentare, testare, sbagliare e riprovare? Il tempo risparmiato da queste attività per cosa verrà impiegato? Da lavori "creativi, divertenti e stimolanti" dicono i fan, ma il mondo ha davvero bisogno di 8 miliardi di creativi? Stamattina sentivo il commento di un giornalista importante che in radio diceva che nel futuro del giornalismo, invece, ad esempio, di cinque giornalisti in redazione, ce n'è sarà solo uno che controllerà il /prodotto/ dei SALAMI. Alla faccia della creatività. A.
sto vedendo una startup che usa NLP in uno spreadsheet. "Dammi il prodotto dei due numeri maggior di questa lista" "prendi tutte le date in questa lista e convertile in anno mese giorno" è un esempio più in generale il nocode con nlp potrebbe essere una cosa significativa. questo per dire che IMHO possono esistere applicazioni meno evidenti di quelle a cui normalmente pensiamo oggi forse gli ambiti che preoccupano oggi non sono quelli più rilevanti. pensando al lavoro di ufficio faccio fatica a vedere così vaste aree applicative da così grande disruption https://blog.quintarelli.it/2023/01/a-somewhat-contrarian-view-on-the-promis... ciao, s. Il 20 marzo 2023 09:00:12 UTC, Antonio <antonio@piumarossa.it> ha scritto:
... Trovate il resto qui https://www.startmag.it/innovazione/non-lasciamo-che-i-nostri-figli-diventin...
Bell'articolo, che condivido totalmente, tuttavia c'è un aspetto che mi piacerebbe approfondire con te e gli altri.
"i SALAMI possono essere di enorme aiuto per l’umanità" Tutta? Una parte? Quale parte? Citanto Guido, "possiamo costruirli e gestirli in modo che non aumentino le disuguaglianze e i pericoli?"
Nell'articolo continui con: "all’università [...] possano contribuire all’approfondimento nello studio di una disciplina" E su questo nulla da dire, università e centri di ricerca (pubblici e privati), non possono che trovare giovamento da /strumenti/ innovativi. E poi: "nel mondo del lavoro vi sono molti modi in cui essi possono alleviare la nostra fatica mentale" Ecco, qua sono spiazzato. Cos'è la fatica mentale? La traduzione da una lingua ad un altra, ok, ma quanti, nel lavoro di ogni giorno, ne hanno necessità? La fatica di leggere, studiare, ricercare, confrontarsi con gli altri, ascoltare, sperimentare, testare, sbagliare e riprovare? Il tempo risparmiato da queste attività per cosa verrà impiegato? Da lavori "creativi, divertenti e stimolanti" dicono i fan, ma il mondo ha davvero bisogno di 8 miliardi di creativi? Stamattina sentivo il commento di un giornalista importante che in radio diceva che nel futuro del giornalismo, invece, ad esempio, di cinque giornalisti in redazione, ce n'è sarà solo uno che controllerà il /prodotto/ dei SALAMI. Alla faccia della creatività.
A. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Buongiorno, Stefano Quintarelli <stefano@quintarelli.it> writes:
sto vedendo una startup che usa NLP in uno spreadsheet.
oh mamma mi vengono i brividi: già i fogli di calcolo sono **pericolosi** da soli, messi assieme a NLP diventano /automaticamente/ "Weapons of Math Destruction"! :-O
"Dammi il prodotto dei due numeri maggior di questa lista" "prendi tutte le date in questa lista e convertile in anno mese giorno"
ma non si fa prima a scrivere una funzioncina in un linguaggio di programmazione (ad alto livello) /a caso/ (usando qualche libreria, magari)?
è un esempio
più in generale il nocode con nlp potrebbe essere una cosa significativa.
anche il nodebug del nocode via NLP potrebbe essere significativo... un incubo significativo :-) [...] saluti, 380° -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
On 3/28/23 17:51, 380° wrote:
Buongiorno,
Stefano Quintarelli <stefano@quintarelli.it> writes:
sto vedendo una startup che usa NLP in uno spreadsheet. oh mamma mi vengono i brividi: già i fogli di calcolo sono **pericolosi** da soli, messi assieme a NLP diventano /automaticamente/ "Weapons of Math Destruction"! :-O
"Dammi il prodotto dei due numeri maggior di questa lista" "prendi tutte le date in questa lista e convertile in anno mese giorno" ma non si fa prima a scrivere una funzioncina in un linguaggio di programmazione (ad alto livello) /a caso/ (usando qualche libreria, magari)?
Forse. Ma il mondo va in un'altra direzione. Del resto lo sviluppo dei linguaggi di programmazione è proceduto - e procede - per astrazioni successive, che partono dal linguaggio macchina, faticoso da gestire per un umano (tempi di sviluppo lunghissimi), e procedono verso linguaggi ad alto o ad altissimo livello, creati per differenti scopi. Obiettivi comuni di questa evoluzione, mi pare, siano quelli di (i) rendere progressivamente più piacevole/adatto (per l'umano) e (ii) efficace per il particolare scopo (e dunque per la macchina in astratto) il compimento di azioni di computazione. Se ora i linguaggi sono praticati da macchine, che li compongono su indicazione umana, potrebbe succedere che in futuro i nuovi linguaggi - e le nuove versioni dei linguaggi esistenti - virino verso l'adattamento alla macchina, piuttosto che verso l'adattamento all'umano. Potrebbe quindi cominciare una evoluzione di segno diverso per il processo di astrazione così come lo conosciamo oggi. Nel tempo questo potrebbe estremizzare la perdita di conoscenza degli strati inferiori di astrazione e il controllo sulla direzioni politiche della tecnologia. D. (null)
Caro Giacomo, grazie per la tua articolata risposta. Per motivi di spazio e per restare in tema rispondo solo alla tua osservazione che "sostenere che le AI non siano intelligenti perché non dotate di corpo è ingenuo". Il corpo è _condizione necessaria_ ma non _sufficiente_ per una qualsiasi interazione "intelligente" che non sia solo un simulacro: chiaramente serve poi molto altro. Il fatto è ben chiaro a chi ci lavora: [...] a significant weakness of language models is that they lack real-world experience, which makes it difficult to leverage them for decision making within a given embodiment. <https://arxiv.org/pdf/2204.01691.pdf> Tanto che il problema del 'grounding' dei modelli linguistici nel mondo viene affrontato esplicitamente attraverso la *incorporazione*: However, a limitation of such models for inference in the real world is the issue of grounding: while training LLMs on massive textual data may lead to representations that relate to our physical world, connectingthose representationstoreal-world visual and physical sensor modalities is essential to solving a wider range ofgroundedreal-world problems in computer vision and robotics [...] We propose embodied language models to directly incorporate real-world continuous sensor modalities into language models and thereby establish the link between words and percepts. <https://palm-e.github.io/> Attraverso l'approccio 'embodied' vengono realizzate macchine che rispondono con una azione corporea a uno stimolo verbale e che cercano di integrare informazioni linguistiche, sensoriali e motorie in modo che il prodotto di queste informazioni fornisca un comportamento complesso non ottenibile altrimenti. LLMs planning in embodied environments need to consider not just what skills to do, but also how and when to do them - answers that change over time in response to the agent’s own choices. In this work, we investigate to what extent LLMs used in such embodied contexts can reason over sources of feedback provided through natural language, without any additional training. We propose that by leveraging environment feedback, LLMs are able to form an inner monologue that allows them to more richly process and plan in robotic control scenarios. We investigate a variety of sources of feedback, such as success detection, object recognition, scene description, and human interaction. <https://innermonologue.github.io/> In questi esperimenti la macchina condivide uno stesso mondo spaziale e percettivo con l'umano: "portami il giornale" farà si che la macchina (se capisce e agisce correttamente) porti il giornale; se lo facesse un cane lo definiremmo "intelligente". Non si tratta semplicemente di integrare algoritmi di visione e mobilità con quelli linguistici, ma di cercare _caratteristiche emergenti_ che nascano dalle interazioni di questi diversi elementi. Al di là di ciò che vogliamo definire come 'intelligente' o meno (per chi, per quale contesto, poi?), non possiamo escludere che da queste interazioni "incorporate" possano emergere comportamenti complessi ben diversi da quelli puramente emulativi di un LLM che non ha alcuna esperienza del mondo. Se anche avessero successo, esperimenti di questo tipo aprono altri ordini di problemi: la macchina potrebbe distinguere "portami il giornale" da "portami la pistola"? Anche un cane molto intelligente non saprebbe farlo. Ciao, Alberto On 3/19/23 16:55, Giacomo Tesio wrote:
Salve Guido, Alberto e Nexa... buona domenica!
Sarà perché sono solo un informatico, ma io la faccio più semplice.
On Sat, 18 Mar 2023 08:10:04 +0100 Guido Vetere wrote:
Il segno non esiste come informazione astratta, ma fa parte di un /processo interpretativo/ che è prettamente _umano_. La caratterizzazione di questo "processo interpretativo" è il grande mistero filosofico che prende il nome di "teoria del significato". Dire che questo processo possa avvenire solo all'interno di organismi umani consociati, in una teoria del significato, si può dire solo in modo assiomatico. Un teorema che giunga a questa conclusione, in una teoria semiotica comunemente accettata, nessuno ce l'ha, che io sappia. La consistenza della conoscenza umana è indecidibile (per l'uomo). Cercare di dimostrare matematicamente che il processo interpretativo tipico della mente umana possa avvenire solo nella mente umana è futile, per una mente umana. Vedi teoremi di incompletezza di Gödel.
Più semplicemente possiamo definire l'informazione come l'esperienza soggettiva di pensiero comunicabile che una mente umana (ciascuno di noi) può percepire in sé stessa, durante il proprio pensare. La mente è l'insieme delle informazioni acquisite, che determinano (insieme ad alcuni aspetti evolutivamente determinati) come ogni informazione viene elaborata.
L'informazione è un fenomeno soggettivo con effetti oggettivi. L'informazione esiste esclusivamente in una mente umana, effetto collaterale del vantaggio evolutivo che il linguaggio ha fornito ad una specie fragile come la nostra.
L'esigenza di una comunità (e dunque di comunicazione e comunione) nasce dal bisogno di regolare l'accesso, la produzione e la protezione di beni in comune, come la prole o le riserve di cibo.
Così abbiamo dovuto sviluppare un linguaggio sufficientemente preciso da permetterci di comunicare efficientemente le esperienze soggettive che avvenivano nella nostra mente e abbiamo selezionato via via nel corso dei millenni, una specie capace di esperienze soggettive di pensiero comunicabile astratte rispetto alle esperienze quotidiane.
Il numero, la retta, la legge, la termodinamica, la relatività come la meccanica quantistica e oggi l'informatica.
Non possiamo sapere (e io mi sentirei di escludere) se ciascuno di noi condivide la stessa immagine mentale del punto, dello zero o del gatto. Tuttavia possiamo condividere definizioni ed esperienze tramite il linguaggio, costruendo una cultura condivisa che è la ragion d'essere della comunicazione stessa.
Dunque non ci sarebbe comunicazione, linguaggio, informazione o significato se non ci fosse un "noi" a cui tutti abbiamo bisogno di fare riferimento per sopravvivere.
E' fantastico quanto paradossale che una specie debole e fragile come la nostra abbia tratto un vantaggio evolutivo formidabile dall'affidare il 20% delle energie consumate dal proprio corpo ad un organo che ne costituisce meno del 4% del peso. Un organo che non fornisce alcun contributo sostanziale alla sopravvivenza di un individuo se non all'interno di una comunità.
Rimane infatti inspiegabile finché che ci concentriamo sull'individuo.
Ma nonappena alziamo gli occhi dall'IO e pensiamo a NOI, quel 20% di energie spese dal nostro cervello diventa assolutamente efficiente.
Per quanto ce la conti la propaganda liberista, non siamo solo individui: l'essere umano è davvero un animale sociale.
Grazie al linguaggio infatti, abbiamo imparato a costruire menti collettive molto più potenti di ogni singola mente umana, capaci di elaborare informazioni ed esperienze che riusciamo a SINCRONIZZARE fra le NOSTRE menti, sebbene non escano il alcun modo dalla testa di ciascuno di noi.
Voi non state vedendo le informazioni nella mia mente: state leggendo rappresentazioni, dati, che interpreterete alla luce delle esperienze soggettive di pensiero comunicabile già parte della vostra mente.
Eppure leggendo cosa ciascuno di NOI scrive in questa lista, costruiamo una cultura condivisa, sincronizzando alcune informazioni fra le nostre menti.
Le rappresentazioni dell'informazione, fenomeno soggettivo, che comunemente chiamiamo "dati" perché possiamo darle a chi vogliamo, sono il sorgente utilizzato per programmare statisticamente LLM ed altre macchine virtuali, ma non costituiscono informazioni, perché non c'è una mente umana ad averne esperienza soggettiva.
Non sarebbe informazione nemmeno se a questi software programmati statisticamente connettessimo sensori che gli permettano di recuperare informazioni localizzate nello spazio e nel tempo, Alberto.
Le "AI" di Google sono costantemente connesse a decine di miliardi di sensori, molti dei quali ce li portiamo in tasca o aspettano in agguato su siti web (Google Analytics) o dietro caselle di posta apparentemente innocue (GMail quando usato per domini diversi da gmail.com). Questi sensori registrano terabyte di dati geolocalizzati e temporizzati ogni giorno su miliardi di cose, animali e persone.
Eppure non sono (intrinsecamente) intelligenti.
Dunque sostenere che le AI non siano intelligenti perché non dotate di corpo è ingenuo.
Un corpo fragile e debole è certamente utilissimo a sviluppare una specie capace di intelligenza, ma non è la ragione per cui siamo intelligenti.
Siamo intelligenti perché abbiamo bisogno di stare insieme. Siamo intelligenti perché abbiamo bisogno di mettere in comune risorse e regole per proteggerle durante il loro utilizzo. Siamo intelligenti perché (e fintanto che) siamo parte di comunità.
Giacomo
PS: Va però osservato anche che le "AI" di Google non sono che una parte del controllore dell'agente cibernetico Google.
Oltre alle "AI", vi sono decine di migliaia di menti umane che lavorano per Google (esplicitamente o meno) e che governano Google (CdA etc..).
Dunque sebbene le "AI" di Google non siano intelligenti, lo è certamente Google nel suo complesso, come agente cibernetico a sé stante.
Ed in questo senso forse non dovremmo aspettare che un AGI super-intelligente cerchi di prendere il sopravvento sull'umanità.
Da quando è nata, nell'IA si confrontano due approcci profondamente diversi: quello connessionista, nato col 'percettrone' di Rosenblat, e quello rappresentazionale, legato alla logica (e oggi si dice) all'ontologia, che fece esordio coi 'frames' di Minsky. Mentre quest'ultimo si propone come ipotesi, cioè dispositivo puramente teoretico, il primo approccio ha in genere ambizioni realistiche, cioè si propone come mimesi effettiva della cognitività umana. Dovremmo a mio avviso prestare attenzione a questa distinzione. Oggi si mostra come i sistemi basati su LLM, derivanti dalla tradizione connessionista, sono sostanzialmente incapaci di ragionamento, e questo ripete, su una scala diversa, la classica dimostrazione di Minsky sulla incapacità dei percettroni di apprendere l'aritmetica. Ma non credo che i LLM, benché privi di corpo, emozioni e desideri, siano costituzionalmente incapaci di costruire al loro interno il corrispettivo di modelli concettuali del tipo di Cyc o Yago, o perfino qualcosa di molto più ampio e accurato, e di arrivare ad esempio a risolvere ragionamenti di senso comune come quelli del Winograd schema challenge. Basare la nostra riflessione, oggi, su questa presunta incapacità sarebbe fuorviante e pericoloso. Mettiamoci invece nell'ordine di idee che queste capacità siano alla portata degli automi del domani. Come rapportarci con questa 'specie aliena' che noi stessi stiamo popolando? L'approccio repressivo (regole, limiti, ecc) può avere successo? Non ci vengono idee migliori? G. On Mon, 20 Mar 2023 at 11:33, Alberto Cammozzo via nexa < nexa@server-nexa.polito.it> wrote:
Caro Giacomo,
grazie per la tua articolata risposta. Per motivi di spazio e per restare in tema rispondo solo alla tua osservazione che "sostenere che le AI non siano intelligenti perché non dotate di corpo è ingenuo".
Il corpo è _condizione necessaria_ ma non _sufficiente_ per una qualsiasi interazione "intelligente" che non sia solo un simulacro: chiaramente serve poi molto altro.
Il fatto è ben chiaro a chi ci lavora:
[...] a significant weakness of language models is that they lack real-world experience, which makes it difficult to leverage them for decision making within a given embodiment. <https://arxiv.org/pdf/2204.01691.pdf>
Tanto che il problema del 'grounding' dei modelli linguistici nel mondo viene affrontato esplicitamente attraverso la *incorporazione*:
However, a limitation of such models for inference in the real world is the issue of grounding: while training LLMs on massive textual data may lead to representations that relate to our physical world, connecting those representations to real-world visual and physical sensor modalities is essential to solving a wider range of grounded real-world problems in computer vision and robotics
[...]
We propose embodied language models to directly incorporate real-world continuous sensor modalities into language models and thereby establish the link between words and percepts. <https://palm-e.github.io/> <https://palm-e.github.io/>
Attraverso l'approccio 'embodied' vengono realizzate macchine che rispondono con una azione corporea a uno stimolo verbale e che cercano di integrare informazioni linguistiche, sensoriali e motorie in modo che il prodotto di queste informazioni fornisca un comportamento complesso non ottenibile altrimenti.
LLMs planning in embodied environments need to consider not just what skills to do, but also how and when to do them - answers that change over time in response to the agent’s own choices. In this work, we investigate to what extent LLMs used in such embodied contexts can reason over sources of feedback provided through natural language, without any additional training. We propose that by leveraging environment feedback, LLMs are able to form an inner monologue that allows them to more richly process and plan in robotic control scenarios. We investigate a variety of sources of feedback, such as success detection, object recognition, scene description, and human interaction. <https://innermonologue.github.io/>
In questi esperimenti la macchina condivide uno stesso mondo spaziale e percettivo con l'umano: "portami il giornale" farà si che la macchina (se capisce e agisce correttamente) porti il giornale; se lo facesse un cane lo definiremmo "intelligente".
Non si tratta semplicemente di integrare algoritmi di visione e mobilità con quelli linguistici, ma di cercare _caratteristiche emergenti_ che nascano dalle interazioni di questi diversi elementi.
Al di là di ciò che vogliamo definire come 'intelligente' o meno (per chi, per quale contesto, poi?), non possiamo escludere che da queste interazioni "incorporate" possano emergere comportamenti complessi ben diversi da quelli puramente emulativi di un LLM che non ha alcuna esperienza del mondo.
Se anche avessero successo, esperimenti di questo tipo aprono altri ordini di problemi: la macchina potrebbe distinguere "portami il giornale" da "portami la pistola"? Anche un cane molto intelligente non saprebbe farlo.
Ciao, Alberto
On 3/19/23 16:55, Giacomo Tesio wrote:
Salve Guido, Alberto e Nexa... buona domenica!
Sarà perché sono solo un informatico, ma io la faccio più semplice.
On Sat, 18 Mar 2023 08:10:04 +0100 Guido Vetere wrote:
Il segno non esiste come informazione astratta, ma fa parte di un /processo interpretativo/ che è prettamente _umano_.
La caratterizzazione di questo "processo interpretativo" è il grande mistero filosofico che prende il nome di "teoria del significato". Dire che questo processo possa avvenire solo all'interno di organismi umani consociati, in una teoria del significato, si può dire solo in modo assiomatico. Un teorema che giunga a questa conclusione, in una teoria semiotica comunemente accettata, nessuno ce l'ha, che io sappia.
La consistenza della conoscenza umana è indecidibile (per l'uomo). Cercare di dimostrare matematicamente che il processo interpretativo tipico della mente umana possa avvenire solo nella mente umana è futile, per una mente umana. Vedi teoremi di incompletezza di Gödel.
Più semplicemente possiamo definire l'informazione come l'esperienza soggettiva di pensiero comunicabile che una mente umana (ciascuno di noi) può percepire in sé stessa, durante il proprio pensare. La mente è l'insieme delle informazioni acquisite, che determinano (insieme ad alcuni aspetti evolutivamente determinati) come ogni informazione viene elaborata.
L'informazione è un fenomeno soggettivo con effetti oggettivi. L'informazione esiste esclusivamente in una mente umana, effetto collaterale del vantaggio evolutivo che il linguaggio ha fornito ad una specie fragile come la nostra.
L'esigenza di una comunità (e dunque di comunicazione e comunione) nasce dal bisogno di regolare l'accesso, la produzione e la protezione di beni in comune, come la prole o le riserve di cibo.
Così abbiamo dovuto sviluppare un linguaggio sufficientemente preciso da permetterci di comunicare efficientemente le esperienze soggettive che avvenivano nella nostra mente e abbiamo selezionato via via nel corso dei millenni, una specie capace di esperienze soggettive di pensiero comunicabile astratte rispetto alle esperienze quotidiane.
Il numero, la retta, la legge, la termodinamica, la relatività come la meccanica quantistica e oggi l'informatica.
Non possiamo sapere (e io mi sentirei di escludere) se ciascuno di noi condivide la stessa immagine mentale del punto, dello zero o del gatto. Tuttavia possiamo condividere definizioni ed esperienze tramite il linguaggio, costruendo una cultura condivisa che è la ragion d'essere della comunicazione stessa.
Dunque non ci sarebbe comunicazione, linguaggio, informazione o significato se non ci fosse un "noi" a cui tutti abbiamo bisogno di fare riferimento per sopravvivere.
E' fantastico quanto paradossale che una specie debole e fragile come la nostra abbia tratto un vantaggio evolutivo formidabile dall'affidare il 20% delle energie consumate dal proprio corpo ad un organo che ne costituisce meno del 4% del peso. Un organo che non fornisce alcun contributo sostanziale alla sopravvivenza di un individuo se non all'interno di una comunità.
Rimane infatti inspiegabile finché che ci concentriamo sull'individuo.
Ma nonappena alziamo gli occhi dall'IO e pensiamo a NOI, quel 20% di energie spese dal nostro cervello diventa assolutamente efficiente.
Per quanto ce la conti la propaganda liberista, non siamo solo individui: l'essere umano è davvero un animale sociale.
Grazie al linguaggio infatti, abbiamo imparato a costruire menti collettive molto più potenti di ogni singola mente umana, capaci di elaborare informazioni ed esperienze che riusciamo a SINCRONIZZARE fra le NOSTRE menti, sebbene non escano il alcun modo dalla testa di ciascuno di noi.
Voi non state vedendo le informazioni nella mia mente: state leggendo rappresentazioni, dati, che interpreterete alla luce delle esperienze soggettive di pensiero comunicabile già parte della vostra mente.
Eppure leggendo cosa ciascuno di NOI scrive in questa lista, costruiamo una cultura condivisa, sincronizzando alcune informazioni fra le nostre menti.
Le rappresentazioni dell'informazione, fenomeno soggettivo, che comunemente chiamiamo "dati" perché possiamo darle a chi vogliamo, sono il sorgente utilizzato per programmare statisticamente LLM ed altre macchine virtuali, ma non costituiscono informazioni, perché non c'è una mente umana ad averne esperienza soggettiva.
Non sarebbe informazione nemmeno se a questi software programmati statisticamente connettessimo sensori che gli permettano di recuperare informazioni localizzate nello spazio e nel tempo, Alberto.
Le "AI" di Google sono costantemente connesse a decine di miliardi di sensori, molti dei quali ce li portiamo in tasca o aspettano in agguato su siti web (Google Analytics) o dietro caselle di posta apparentemente innocue (GMail quando usato per domini diversi da gmail.com). Questi sensori registrano terabyte di dati geolocalizzati e temporizzati ogni giorno su miliardi di cose, animali e persone.
Eppure non sono (intrinsecamente) intelligenti.
Dunque sostenere che le AI non siano intelligenti perché non dotate di corpo è ingenuo.
Un corpo fragile e debole è certamente utilissimo a sviluppare una specie capace di intelligenza, ma non è la ragione per cui siamo intelligenti.
Siamo intelligenti perché abbiamo bisogno di stare insieme. Siamo intelligenti perché abbiamo bisogno di mettere in comune risorse e regole per proteggerle durante il loro utilizzo. Siamo intelligenti perché (e fintanto che) siamo parte di comunità.
Giacomo
PS: Va però osservato anche che le "AI" di Google non sono che una parte del controllore dell'agente cibernetico Google.
Oltre alle "AI", vi sono decine di migliaia di menti umane che lavorano per Google (esplicitamente o meno) e che governano Google (CdA etc..).
Dunque sebbene le "AI" di Google non siano intelligenti, lo è certamente Google nel suo complesso, come agente cibernetico a sé stante.
Ed in questo senso forse non dovremmo aspettare che un AGI super-intelligente cerchi di prendere il sopravvento sull'umanità.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Buongiorno Enrico, Enrico Nardelli <nardelli@mat.uniroma2.it> writes:
Mi è venuto in mente che ciò che fa ChatGPT è una sorta di realizzazione pratica dell'esperimento mentale della Stanza Cinese di John Searle (https://it.wikipedia.org/wiki/Stanza_cinese
qualcuno sostiene che ChatGPT è intelligenza artificiale generale (aka forte)? :-) [...] Citando Searle: --8<---------------cut here---------------start------------->8--- it is not about machines but about programs, and no program by itself is sufficient for thinking --8<---------------cut here---------------end--------------->8--- tratto da «Minds, brains, and programs» del 1980 https://www.cambridge.org/core/journals/behavioral-and-brain-sciences/articl... [1] saluti, 380° [1] per fortuna il paper /piratato/ è qui: https://sci-hub.ru/10.1017/S0140525X00005756 -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Buon pomeriggio. Il 28/03/2023 17:07, 380° ha scritto: qualcuno sostiene che ChatGPT è intelligenza artificiale generale (akaforte)? :-) Temo di sì: Sparks of Artificial General Intelligence: Early experiments with GPT-4 <https://arxiv.org/abs/2303.12712> Esperimenti da scienza culto del cargo, considerata la segretezza di tutte le specifiche di GPT-4. E, per restare in tema di animismo, un senatore degli USA ha scritto ieri che chatGPT "ha deciso": <https://www.vice.com/en/article/ak3zbp/for-the-love-of-god-ai-chatbots-cant-...> OpenAI, del resto, presenta ChatGPT in questi termini: "By learning from billions of sentences, our models learn grammar, many facts about the world, and some reasoning abilities" <https://openai.com/blog/how-should-ai-systems-behave> L'elemento dell'inganno era già presente nel "gioco dell'imitazione" di Turing. Nel lessico di oggi, potremmo constatare che è una scelta di design, quella di diffondere un sistema di autocompletamento che dice "io". Un saluto, Daniela
Buongiorno. Il 28/03/2023 17:07, 380° ha scritto: qualcuno sostiene che ChatGPT è intelligenza artificiale generale (akaforte)? :-) Per semplificarci il compito di rispondere, hanno firmato tutti insieme una lettera aperta <https://futureoflife.org/open-letter/pause-giant-ai-experiments/> sottoscrivendo la tesi che "Contemporary AI systems are now becoming human-competitive at general tasks" e indicando, quale fonte di rischio, i "powerful AI systems", anziché le compagnie che li producono. Smonta l'AI hype, passo per passo, Emily Bender: <https://nitter.snopyta.org/emilymbender/status/1640920936600997889> Un saluto, Daniela
Buongiorno, grazie per i riferimenti! Daniela Tafani <daniela.tafani@unipi.it> writes: [...]
Smonta l'AI hype, passo per passo, Emily Bender: <https://nitter.snopyta.org/emilymbender/status/1640920936600997889>
/smontare/ passo per passo è molto hacker, l'unica cosa seria che si può fare... con *tutto* dei tweet citati sopra sottolineo: --8<---------------cut here---------------start------------->8--- Next paragraph. Human-competitive at general tasks, eh? What does footnote 3 reference? The speculative fiction novella known as the "Sparks paper" ([1], n.d.r.) and OpenAI's non-technical ad copy for GPT4 ([2], n.d.r.). --8<---------------cut here---------------end--------------->8--- Forse che i profeti della intelligenza artificiale generale (stocastica) se la cantano e se la suonano? un saluto, 380° [1] https://arxiv.org/abs/2303.12712 [2] https://cdn.openai.com/papers/gpt-4.pdf -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
You will know a letter from the signatories it keeps, si potrebbe dire per parafrasare il motto della linguistica distribuzionale da cui tutto ciò origina. Unireste mai la vostra firma a quella di Elon Musk? In aggiunta a tutte le possibili chiose sull'inanità di questo appello vorrei far notare che GPT-4, pur essendo di tre ordini di grandezza superiore a GPT-3, non ragiona molto meglio. Cosa significa questo? Non bisogna essere matematici per capire che, evidentemente, arrivati a un certo punto (di flesso) le dimensioni non contano. Buona giornata, G. On Wed, 29 Mar 2023 at 14:43, 380° <g380@biscuolo.net> wrote:
Buongiorno,
grazie per i riferimenti!
Daniela Tafani <daniela.tafani@unipi.it> writes:
[...]
Smonta l'AI hype, passo per passo, Emily Bender: <https://nitter.snopyta.org/emilymbender/status/1640920936600997889>
/smontare/ passo per passo è molto hacker, l'unica cosa seria che si può fare... con *tutto*
dei tweet citati sopra sottolineo:
--8<---------------cut here---------------start------------->8---
Next paragraph. Human-competitive at general tasks, eh? What does footnote 3 reference? The speculative fiction novella known as the "Sparks paper" ([1], n.d.r.) and OpenAI's non-technical ad copy for GPT4 ([2], n.d.r.).
--8<---------------cut here---------------end--------------->8---
Forse che i profeti della intelligenza artificiale generale (stocastica) se la cantano e se la suonano?
un saluto, 380°
[1] https://arxiv.org/abs/2303.12712
[2] https://cdn.openai.com/papers/gpt-4.pdf
-- 380° (Giovanni Biscuolo public alter ego)
«Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché»
Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
participants (11)
-
380° -
Alberto Cammozzo -
Antonio -
D. Davide Lamanna -
Daniela Tafani -
Enrico Nardelli -
Filippo Barbera -
Giacomo Tesio -
Guido Vetere -
Marco A. Calamari -
Stefano Quintarelli