Scusa Guido, premesso che ammiro e rispetto Beppe Attardi che è certamente estremamente competente in termini di IA, se con "dare ascolto" intendi "credere", beh, temo che questo atteggiamento ci riporti all'ipse dixit. La discussione su fatti scientifici non può mai procedere per "fede". Ad esempio, in questo recente scambio avvenuto in lista Il 12/04/2023 14:15, Giuseppe Attardi ha scritto:
On 11 Apr 2023, at 20:34, Antonio Casilli<antonio.casilli@telecom-paris.fr> wrote:
PS. I LLM sono tutt’altro che Stochastic Parrots: ripetere a pappagallo i testi da cui sono stati allenati è proprio ciò che non sanno fare. Beppe, "stochastic parrot" non è questo. Timnit Gebru et al. ne parlano nel senso di un dispositivo che "haphazardly stitch[es] together sequences of linguistic forms (...), according to probabilistic information about how they combine, but without any reference to meaning". L'accento è sullo "stochastic". Ma non è questo quello che fanno i LLM della serie GPT: non attaccano affatto insieme “sequenze di forme linguistiche”. Questo riprodurrebbe appunto pezzi di frasi a pappagallo. Invece il loro meccanismo di base è quello del calcolo della distribuzione di probabilità della prossima parola a seguire in una sequenza.
ritengo che Beppe abbia male interpretato quanto Antonio ha scritto, nonostante Beppe sia certamente profondo conoscitore dell'IA mentre Antonio ha professionalmente un'altra preparazione. Antonio infatti dice "dispositivo che attacca insieme sequenze di forme linguistiche in base ad informazioni probabilistiche su come si combinano", cui Beppe ribatte che "il loro meccanismo di base è quello del calcolo della distribuzione di probabilità della prossima parola a seguire in una sequenza". Io ritengo che Antonio abbia detto esattamente quello che dice Beppe, visto che "forme linguistiche di base" è un'espressione che comprende anche "la prossima parola". Aggiungo, sempre facendo riferimento a quello scambio, che forse non c'è bisogno di citare Giorgio Parisi, anche lui eminentissimo scienziato premiato col Nobel, per ricordare che comportamenti complessi emergono da leggi semplici. Non serve neanche che siano probabilistiche, come evidenziò tra i primi Henri Poincaré nell'Ottocento. Anche con equazioni deterministiche emerge quel caos al cui confine con l'ordine c'è la complessità del "significato", la complessità della vita biologica e della nostra esistenza. Insomma, se il dibattito deve essere di livello scientifico elevato, più che appellarci alla "auctoritas" dobbiamo essere rigorosi, attenti e consistenti nella lettura degli altri e nell'esposizione delle nostre riflessioni. Ciao, Enrico -- Il 16/04/2023 18:32, Guido Vetere ha scritto:
Quanti sanno "com'è"?
sicuramente, una piccola frazione di quelli che presumono di saperlo :-)
perché non diamo ascolto a chi su queste cose ha lavorato scientificamente a livello internazionale per una vita?
sta qui in lista, si chiama @Giuseppe Attardi <mailto:giuseppe.attardi@unipi.it>
G.
On Sun, 16 Apr 2023 at 17:55, alessandro marzocchi <alemarzoc@gmail.com> wrote:
Facile essere d'accordo ma ... come "fare i conti" con qualcosa che non capisco come funziona?
questo sistema è lì così com'è,
Quanti sanno "com'è"? Qui origina "il disagio di collasso" perchè non è un'auto ma un "coso" che già oggi funziona come il nostro cervello, indirizza la nostra mente, le nostre scelte, i nostri comportamenti. Cordialmente Duccio (Alessandro Marzocchi)
Date: Sun, 16 Apr 2023 17:14:15 +0200
From: Guido Vetere <vetere.guido@gmail.com> To: Roberto Dolci <rob.dolci@aizoon.us> Cc: "delromano@gmail.com" <delromano@gmail.com>, Nexa <nexa@server-nexa.polito.it> Concordo. Bisognerebbe smetterla di ragionare su quello che ChatGPT dovrebbe essere o ci piacerebbe che fosse (in sostanza: il front-end di una base di conoscenza editabile, come d'altronde ce ne sono tanti) e ragionare invece su quello che è, su come usarlo e con quali cautele, sul non usarlo e perché, o sulla opportunità giuridica di impedire del tutto il suo uso. Insomma, nel '900 qualcuno avrebbe potuto chiedere, o addirittura esigere, che le autovetture fossero alimentate a biada, offuscando però il dibattito sulla necessità di installare semafori in città. Questo è il pericolo che vedo nella posizione del Garante italiano. E' ovvio che siamo tutti a disagio davanti al fatto che la conoscenza globale collassi in un solo sistema proprietario, e per di più *intrinsecamente* allucinato. Ma questo sistema è lì così com'è, e più che levare contro di esso grida manzoniane, dovremo pensare seriamente a come farci i conti. G.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa --
-- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --