Re: Una visione realistica dell’Intelligenza Artificiale - Lettera aperta alla società
Sono alquanto perplesso sull’impostazione di questa petizione. Se l’obiettivo è “formare le persone a comprendere queste tecnologie” "Invitiamo la comunità accademica dell’informatica a contribuire attivamente a questa opera di chiarimento e formazione. Spiegare con precisione che cosa queste tecnologie sono davvero, e che cosa non sono, è un’opera di alfabetizzazione che è parte integrante del nostro lavoro di ricercatori e docenti.” mi pare non solo ovvio ma limitativo. È un dovere degli studiosi e degli accademici di studiare e formare ricercatori e persone. Ma "formare persone a comprendere” è piuttosto limitativo. Ciò che dovrebbe fare la comunità scientifica nazionale (mi immagino a questa sia rivolta la petizione) sarebbe di impegnarsi nello sviluppare e padroneggiare le attuali e future tecnologie di AI, generativa e non. La tecnologia del Deep Learning è in una fase evolutiva straordinaria, iniziata nel 2006 ed esplosa nel 2022, con "risultati tecnici impressionanti e inattesi” di cui la petizione stessa prende atto. Purtroppo la direzione della ricerca è attualmente dettata dagli ingenti investimenti in infrastrutture di calcolo e nella capacità di attrarre talenti di poche grandi aziende americane o cinesi: circa il 60% dei brevetti in AI è detenuto dalla Cina (https://www.wipo.int/pressroom/en/articles/2024/article_0009.html), il 40% dagli USA e 0,% dall’Europa. Il recente AI Index di Stanford (https://hai.stanford.edu/ai-index/2026-ai-index-report) indica che il livello raggiunto dai sistemi cinesi è ormai alla pari di quelli americani. Ma ci sono strade di ricerca da esplorare diverse da quelle guidate da interessi commerciali, e su questo si dovrebbe investire in Europa. Da tempo, con l’associazione CAIRNE (https://cairne.eu/cern-for-ai/) e di recente con l’appoggio del premio Nobel Giorgio Parisi, stiamo chiedendo la costituzione di un CERN for AI, un centro fisico (non le solite network che piacciono tanto ai funzionari europei, vedi RAISE https://www.coe-raise.eu/), dove concentrare gli investimenti e i ricercatori in AI, dotandoli della necessaria libertà di ricerca, per battere anche strade inesplorate. Già adesso la ricerca sugli LLM è avanzata ben oltre modelli in grado di "stimare quale parola è più probabile in una frase”, come riporta Guido Vetere. Ci sono novità che riguardano gli aspetti di memorizzazione e di ragionamento, attraverso modelli ricorsivi che esaminano o controllano i propri processi. Non sappiamo dove queste ricerche porteranno, ma bisogna essere coinvolti e padroneggiare la tecnologia se la si vuole controllare o orientare. Nella petizione invece si dà un'interpretazione del funzionamento di certi modelli, cadendo in luoghi comuni, del tipo "non equivalgono a comprensione nel senso umano del termine”, "non significa che capiscano ciò che stanno dicendo”, "non costruiscono modelli del mondo nel senso in cui lo fanno gli esseri umani". Non vale la pena controbattere a tali affermazioni per due motivi: 1. Non sappiamo cosa sia la “comprensione nel senso umano”, quindi affermare che un sistema NON ha qualcosa di indefinibile non ha molto senso 2. È comunque irrilevante porsi la domanda se “comprendono in senso umano”. È sicuro che operano in modo diverso dal nostro cervello, ma ciò non è necessariamente un difetto: conta se sono in grado di svolgere i compiti che gli affidiamo. Su queste posizioni Walter Quattrociocchi sta conducendo da tempo una campagna di critica a tutto spiano, che purtroppo non accetta confronti: o sei d’accordo con lui o vieni bollato come “dotto ignorante” in pubblico (come accenna Guido Vetere). Eppure le mie posizioni hanno avuto il sostegno anche di Yoshua Bengio. Si tratta quindi di una battaglia di retroguardia, che incita contro qualcosa che è ben diverso da come lo si rappresenta. Quindi non firmerò questa petizione. — Beppe On 7 May 2026, at 09:05, nexa-request@server-nexa.polito.it wrote: From: Guido Vetere <vetere.guido@gmail.com<mailto:vetere.guido@gmail.com>> Subject: [nexa] Re: Una visione realistica dell’Intelligenza Artificiale - Lettera aperta alla società To: Juan Carlos De Martin <demartin@polito.it<mailto:demartin@polito.it>>, "J.C. DE MARTIN" <juancarlos.demartin@polito.it<mailto:juancarlos.demartin@polito.it>> Cc: Nexa <nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>> Message-ID: <FC0A4619-AADC-48A7-9B1B-DD6D053720BE@gmail.com<mailto:FC0A4619-AADC-48A7-9B1B-DD6D053720BE@gmail.com>> Content-Type: multipart/alternative; boundary="Apple-Mail=_8C50A1EB-3894-460E-B636-1DBBFE8FF2B2" “Quando sembrano ragionare, combinano schemi appresi dai dati. Quando sembrano sapere qualcosa, producono l’output statisticamente più coerente con il contesto, senza avere accesso diretto al mondo o a meccanismi autonomi di verifica.” Tuttavia bisogna prendere in considerazione il fatto che i sistemi generativi attuali non sono più semplici (si fa per dire) “predittori del prossimo token”. La differenza tra Claude, ChatGPT, Gemini, etc. ormai non è più tanto nel modello di base, quanto nell’harness, cioè nella orchestrazione di runtime fatta di cicli interni, uso di tool, valutazione del contesto, etc. I sistemi generativi sono diventati ensemble di agenti, come spiegava Anthropic già nel 2024 (https://www.anthropic.com/engineering/building-effective-agents) – il che spiega anche come mai Claude abbia preso il sopravvento. Se questo è vero, bisogna tornare su quell’”accesso diretto al mondo” e quei “meccanismi autonomi di verifica”, per valutare come e quanto siano fattori differenziali. Sappiamo che la terra non è piatta perché l’abbiamo visto? O ci siamo messi a fare esperimenti? Non si può essere “realisti” al punto da ignorare che la nostra conoscenza è un fatto sociale che passa per la testualità, non bisogna aver letto Gadamer e Ricoeur. Detto questo, ma fa piacere che l’appello (che ovviamente non firmerò) sia promosso da Enrico Nardelli, con cui spero che – al contrario di Quattrociocchi – si possa fare una discussione seria. Guido Il giorno 7 mag 2026, alle ore 07:52, J.C. DE MARTIN via nexa <nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>> ha scritto: Vi segnalo questa lettera aperta: https://www.petizioni.com/visione_realistica_intelligenza_artificiale Uno dei promotori è l'amico Enrico Nardelli, ben noto a chi frequenta questa lista. JC
Secondo me, se uno firma la lettera aperta alla società, non implica che sia contrario a creare un "CERN AI" . Credo che molti di noi sarebbero contenti se fosse già stato creato un "CERN AI" quattro anni fa invece di piccoli e deboli gruppi e progettini. La lettera non dice che non bisogna fare un "CERN AI", mi pare. Non entro invece nel dibattito sulla comprensione umana, ho già difficoltà a comprendere me stesso ;-) Credo che un obiettivo della lettera sia evitare che le persone non esperte di AI si innamorino dei sistemi GenAI o "rimbecilliscano" (c'è chi non riesce a fare quasi più nulla senza chiedere a GenAI), ecc. Grazie per la ri-condivisione di CAIRNE . AB On Thu, May 7, 2026 at 11:45 AM Giuseppe Attardi via nexa < nexa@server-nexa.polito.it> wrote:
Sono alquanto perplesso sull’impostazione di questa petizione.
Se l’obiettivo è
“formare le persone a comprendere queste tecnologie” "Invitiamo la comunità accademica dell’informatica a contribuire attivamente a questa opera di chiarimento e formazione. Spiegare con precisione che cosa queste tecnologie sono davvero, e che cosa non sono, è un’opera di alfabetizzazione che è parte integrante del nostro lavoro di ricercatori e docenti.”
mi pare non solo ovvio ma limitativo. È un dovere degli studiosi e degli accademici di studiare e formare ricercatori e persone.
Ma "formare persone a comprendere” è piuttosto limitativo. Ciò che dovrebbe fare la comunità scientifica nazionale (mi immagino a questa sia rivolta la petizione) sarebbe di impegnarsi nello sviluppare e padroneggiare le attuali e future tecnologie di AI, generativa e non. La tecnologia del Deep Learning è in una fase evolutiva straordinaria, iniziata nel 2006 ed esplosa nel 2022, con "risultati tecnici impressionanti e inattesi” di cui la petizione stessa prende atto. Purtroppo la direzione della ricerca è attualmente dettata dagli ingenti investimenti in infrastrutture di calcolo e nella capacità di attrarre talenti di poche grandi aziende americane o cinesi: circa il 60% dei brevetti in AI è detenuto dalla Cina ( https://www.wipo.int/pressroom/en/articles/2024/article_0009.html), il 40% dagli USA e 0,% dall’Europa. Il recente AI Index di Stanford ( https://hai.stanford.edu/ai-index/2026-ai-index-report) indica che il livello raggiunto dai sistemi cinesi è ormai alla pari di quelli americani. Ma ci sono strade di ricerca da esplorare diverse da quelle guidate da interessi commerciali, e su questo si dovrebbe investire in Europa. Da tempo, con l’associazione CAIRNE (https://cairne.eu/cern-for-ai/) e di recente con l’appoggio del premio Nobel Giorgio Parisi, stiamo chiedendo la costituzione di un CERN for AI, un centro fisico (non le solite network che piacciono tanto ai funzionari europei, vedi RAISE https://www.coe-raise.eu/), dove concentrare gli investimenti e i ricercatori in AI, dotandoli della necessaria libertà di ricerca, per battere anche strade inesplorate.
Già adesso la ricerca sugli LLM è avanzata ben oltre modelli in grado di "stimare quale parola è più probabile in una frase”, come riporta Guido Vetere. Ci sono novità che riguardano gli aspetti di memorizzazione e di ragionamento, attraverso modelli ricorsivi che esaminano o controllano i propri processi. Non sappiamo dove queste ricerche porteranno, ma bisogna essere coinvolti e padroneggiare la tecnologia se la si vuole controllare o orientare.
Nella petizione invece si dà un'interpretazione del funzionamento di certi modelli, cadendo in luoghi comuni, del tipo "non equivalgono a comprensione nel senso umano del termine”, "non significa che capiscano ciò che stanno dicendo”, "non costruiscono modelli del mondo nel senso in cui lo fanno gli esseri umani". Non vale la pena controbattere a tali affermazioni per due motivi: 1. Non sappiamo cosa sia la “comprensione nel senso umano”, quindi affermare che un sistema NON ha qualcosa di indefinibile non ha molto senso 2. È comunque irrilevante porsi la domanda se “comprendono in senso umano”. È sicuro che operano in modo diverso dal nostro cervello, ma ciò non è necessariamente un difetto: conta se sono in grado di svolgere i compiti che gli affidiamo.
Su queste posizioni Walter Quattrociocchi sta conducendo da tempo una campagna di critica a tutto spiano, che purtroppo non accetta confronti: o sei d’accordo con lui o vieni bollato come “dotto ignorante” in pubblico (come accenna Guido Vetere). Eppure le mie posizioni hanno avuto il sostegno anche di Yoshua Bengio.
Si tratta quindi di una battaglia di retroguardia, che incita contro qualcosa che è ben diverso da come lo si rappresenta.
Quindi non firmerò questa petizione.
— Beppe
On 7 May 2026, at 09:05, nexa-request@server-nexa.polito.it wrote:
From: Guido Vetere <vetere.guido@gmail.com> Subject: [nexa] Re: Una visione realistica dell’Intelligenza Artificiale - Lettera aperta alla società To: Juan Carlos De Martin <demartin@polito.it>, "J.C. DE MARTIN" <juancarlos.demartin@polito.it> Cc: Nexa <nexa@server-nexa.polito.it> Message-ID: <FC0A4619-AADC-48A7-9B1B-DD6D053720BE@gmail.com> Content-Type: multipart/alternative; boundary="Apple-Mail=_8C50A1EB-3894-460E-B636-1DBBFE8FF2B2"
“Quando sembrano ragionare, combinano schemi appresi dai dati. Quando sembrano sapere qualcosa, producono l’output statisticamente più coerente con il contesto, senza avere accesso diretto al mondo o a meccanismi autonomi di verifica.”
Tuttavia bisogna prendere in considerazione il fatto che i sistemi generativi attuali non sono più semplici (si fa per dire) “predittori del prossimo token”. La differenza tra Claude, ChatGPT, Gemini, etc. ormai non è più tanto nel modello di base, quanto nell’harness, cioè nella orchestrazione di runtime fatta di cicli interni, uso di tool, valutazione del contesto, etc. I sistemi generativi sono diventati ensemble di agenti, come spiegava Anthropic già nel 2024 ( https://www.anthropic.com/engineering/building-effective-agents) – il che spiega anche come mai Claude abbia preso il sopravvento. Se questo è vero, bisogna tornare su quell’”accesso diretto al mondo” e quei “meccanismi autonomi di verifica”, per valutare come e quanto siano fattori differenziali. Sappiamo che la terra non è piatta perché l’abbiamo visto? O ci siamo messi a fare esperimenti? Non si può essere “realisti” al punto da ignorare che la nostra conoscenza è un fatto sociale che passa per la testualità, non bisogna aver letto Gadamer e Ricoeur.
Detto questo, ma fa piacere che l’appello (che ovviamente non firmerò) sia promosso da Enrico Nardelli, con cui spero che – al contrario di Quattrociocchi – si possa fare una discussione seria.
Guido
Il giorno 7 mag 2026, alle ore 07:52, J.C. DE MARTIN via nexa < nexa@server-nexa.polito.it> ha scritto:
Vi segnalo questa lettera aperta: https://www.petizioni.com/visione_realistica_intelligenza_artificiale
Uno dei promotori è l'amico Enrico Nardelli, ben noto a chi frequenta questa lista.
JC
Non ho criticato la petizione perché nega la necessità di un CERN for AI, ma perché parte da premesse discutibili e indica una direzione sbagliata. Forse è sfuggito a molti che ha un’impostazione inaccettabile, perché chiede a tutti (la società) di impegnarsi a sostenere e diffondere una certa interpretazione della tecnologia, quella espressa nelle premesse: “Spiegare con precisione che cosa queste tecnologie sono davvero, e che cosa non sono” ossia che ad esempio "Sono molto potenti nel riorganizzare le informazioni già presenti nei dati, ma non costruiscono modelli del mondo nel senso in cui lo fanno gli esseri umani." Ci sono numerosi casi di risultati che non sono ottenibili “riorganizzando informazioni già presenti nei dati”. E quanto ai “modelli del mondo in senso umano” siamo nella metafisica: la fisica e la chimica sono descritte dai testi scientifici e le esperienze umane dalla letteratura. L’ampia letteratura di cui si alimentano i modelli fornisce una base sufficientemente ricca per consentire all'IA per comprendere la struttura del mondo, senza addentrarci nei modelli multimodali che incorporano segnali visivi o uditivi. I modelli JEPA di Yann LeCun già affrontano la questione direttamente. Ma non voglio addentrarmi qui nel confronto tecnico su opinioni: conta solo segnalare che ci sono opinioni diverse su "che cosa sono davvero questi sistemi, e a che punto siamo realmente”. Siccome la scienza deve essere libera e autonoma, non si può pretendere di imporre a tutti la propria visione. Quelle espresse nelle premesse sono opinioni degli estensori della petizione, che hanno il diritto di esprimerle ma non possono pretendere che l’intera comunità le sottoscriva o che addirittura si impegni a propagandarle. Come dicevo, si può essere d’accordo che serva formazione, ma questa non può prescindere dallo studio di una disciplina che è in rapida evoluzione. Quindi è importante impegnarsi nella ricerca anziché nelle critiche a risultati di altri, già in parte superati. — Beppe On 7 May 2026, at 13:05, Andrea Bolioli <andrea.bolioli@gmail.com> wrote: Secondo me, se uno firma la lettera aperta alla società, non implica che sia contrario a creare un "CERN AI" . Credo che molti di noi sarebbero contenti se fosse già stato creato un "CERN AI" quattro anni fa invece di piccoli e deboli gruppi e progettini. La lettera non dice che non bisogna fare un "CERN AI", mi pare. Non entro invece nel dibattito sulla comprensione umana, ho già difficoltà a comprendere me stesso ;-) Credo che un obiettivo della lettera sia evitare che le persone non esperte di AI si innamorino dei sistemi GenAI o "rimbecilliscano" (c'è chi non riesce a fare quasi più nulla senza chiedere a GenAI), ecc. Grazie per la ri-condivisione di CAIRNE . AB On Thu, May 7, 2026 at 11:45 AM Giuseppe Attardi via nexa <nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>> wrote: Sono alquanto perplesso sull’impostazione di questa petizione. Se l’obiettivo è “formare le persone a comprendere queste tecnologie” "Invitiamo la comunità accademica dell’informatica a contribuire attivamente a questa opera di chiarimento e formazione. Spiegare con precisione che cosa queste tecnologie sono davvero, e che cosa non sono, è un’opera di alfabetizzazione che è parte integrante del nostro lavoro di ricercatori e docenti.” mi pare non solo ovvio ma limitativo. È un dovere degli studiosi e degli accademici di studiare e formare ricercatori e persone. Ma "formare persone a comprendere” è piuttosto limitativo. Ciò che dovrebbe fare la comunità scientifica nazionale (mi immagino a questa sia rivolta la petizione) sarebbe di impegnarsi nello sviluppare e padroneggiare le attuali e future tecnologie di AI, generativa e non. La tecnologia del Deep Learning è in una fase evolutiva straordinaria, iniziata nel 2006 ed esplosa nel 2022, con "risultati tecnici impressionanti e inattesi” di cui la petizione stessa prende atto. Purtroppo la direzione della ricerca è attualmente dettata dagli ingenti investimenti in infrastrutture di calcolo e nella capacità di attrarre talenti di poche grandi aziende americane o cinesi: circa il 60% dei brevetti in AI è detenuto dalla Cina (https://www.wipo.int/pressroom/en/articles/2024/article_0009.html), il 40% dagli USA e 0,% dall’Europa. Il recente AI Index di Stanford (https://hai.stanford.edu/ai-index/2026-ai-index-report) indica che il livello raggiunto dai sistemi cinesi è ormai alla pari di quelli americani. Ma ci sono strade di ricerca da esplorare diverse da quelle guidate da interessi commerciali, e su questo si dovrebbe investire in Europa. Da tempo, con l’associazione CAIRNE (https://cairne.eu/cern-for-ai/) e di recente con l’appoggio del premio Nobel Giorgio Parisi, stiamo chiedendo la costituzione di un CERN for AI, un centro fisico (non le solite network che piacciono tanto ai funzionari europei, vedi RAISE https://www.coe-raise.eu/), dove concentrare gli investimenti e i ricercatori in AI, dotandoli della necessaria libertà di ricerca, per battere anche strade inesplorate. Già adesso la ricerca sugli LLM è avanzata ben oltre modelli in grado di "stimare quale parola è più probabile in una frase”, come riporta Guido Vetere. Ci sono novità che riguardano gli aspetti di memorizzazione e di ragionamento, attraverso modelli ricorsivi che esaminano o controllano i propri processi. Non sappiamo dove queste ricerche porteranno, ma bisogna essere coinvolti e padroneggiare la tecnologia se la si vuole controllare o orientare. Nella petizione invece si dà un'interpretazione del funzionamento di certi modelli, cadendo in luoghi comuni, del tipo "non equivalgono a comprensione nel senso umano del termine”, "non significa che capiscano ciò che stanno dicendo”, "non costruiscono modelli del mondo nel senso in cui lo fanno gli esseri umani". Non vale la pena controbattere a tali affermazioni per due motivi: 1. Non sappiamo cosa sia la “comprensione nel senso umano”, quindi affermare che un sistema NON ha qualcosa di indefinibile non ha molto senso 2. È comunque irrilevante porsi la domanda se “comprendono in senso umano”. È sicuro che operano in modo diverso dal nostro cervello, ma ciò non è necessariamente un difetto: conta se sono in grado di svolgere i compiti che gli affidiamo. Su queste posizioni Walter Quattrociocchi sta conducendo da tempo una campagna di critica a tutto spiano, che purtroppo non accetta confronti: o sei d’accordo con lui o vieni bollato come “dotto ignorante” in pubblico (come accenna Guido Vetere). Eppure le mie posizioni hanno avuto il sostegno anche di Yoshua Bengio. Si tratta quindi di una battaglia di retroguardia, che incita contro qualcosa che è ben diverso da come lo si rappresenta. Quindi non firmerò questa petizione. — Beppe On 7 May 2026, at 09:05, nexa-request@server-nexa.polito.it<mailto:nexa-request@server-nexa.polito.it> wrote: From: Guido Vetere <vetere.guido@gmail.com<mailto:vetere.guido@gmail.com>> Subject: [nexa] Re: Una visione realistica dell’Intelligenza Artificiale - Lettera aperta alla società To: Juan Carlos De Martin <demartin@polito.it<mailto:demartin@polito.it>>, "J.C. DE MARTIN" <juancarlos.demartin@polito.it<mailto:juancarlos.demartin@polito.it>> Cc: Nexa <nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>> Message-ID: <FC0A4619-AADC-48A7-9B1B-DD6D053720BE@gmail.com<mailto:FC0A4619-AADC-48A7-9B1B-DD6D053720BE@gmail.com>> Content-Type: multipart/alternative; boundary="Apple-Mail=_8C50A1EB-3894-460E-B636-1DBBFE8FF2B2" “Quando sembrano ragionare, combinano schemi appresi dai dati. Quando sembrano sapere qualcosa, producono l’output statisticamente più coerente con il contesto, senza avere accesso diretto al mondo o a meccanismi autonomi di verifica.” Tuttavia bisogna prendere in considerazione il fatto che i sistemi generativi attuali non sono più semplici (si fa per dire) “predittori del prossimo token”. La differenza tra Claude, ChatGPT, Gemini, etc. ormai non è più tanto nel modello di base, quanto nell’harness, cioè nella orchestrazione di runtime fatta di cicli interni, uso di tool, valutazione del contesto, etc. I sistemi generativi sono diventati ensemble di agenti, come spiegava Anthropic già nel 2024 (https://www.anthropic.com/engineering/building-effective-agents) – il che spiega anche come mai Claude abbia preso il sopravvento. Se questo è vero, bisogna tornare su quell’”accesso diretto al mondo” e quei “meccanismi autonomi di verifica”, per valutare come e quanto siano fattori differenziali. Sappiamo che la terra non è piatta perché l’abbiamo visto? O ci siamo messi a fare esperimenti? Non si può essere “realisti” al punto da ignorare che la nostra conoscenza è un fatto sociale che passa per la testualità, non bisogna aver letto Gadamer e Ricoeur. Detto questo, ma fa piacere che l’appello (che ovviamente non firmerò) sia promosso da Enrico Nardelli, con cui spero che – al contrario di Quattrociocchi – si possa fare una discussione seria. Guido Il giorno 7 mag 2026, alle ore 07:52, J.C. DE MARTIN via nexa <nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>> ha scritto: Vi segnalo questa lettera aperta: https://www.petizioni.com/visione_realistica_intelligenza_artificiale Uno dei promotori è l'amico Enrico Nardelli, ben noto a chi frequenta questa lista. JC
Ciao Giuseppe, On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote:
Ci sono numerosi casi di risultati che non sono ottenibili “riorganizzando informazioni già presenti nei dati”.
Puoi condividere un paio di esempi riproducibili? Giusto per non limitarsi ad aneddoti commerciali. Giacomo
Scusa Beppe vuoi forse sostenere che “Spiegare con precisione che cosa queste tecnologie sono davvero, e che cosa non sono” sia una premessa discutibile? Vuoi forse sostenere che chiedere a tutti di impegnarsi a sostenere le nostra visione sia inaccettabile? E che è, siamo nel pensiero unico? Noi abbiamo presentato la nostra visione di "cosa queste tecnologie sono davvero, e che cosa non sono", ma non ti impediamo di essere in disaccordo, e infatti lo manifesti liberamente. Dov'è che "*pretendiamo* di imporre a tutti la nostra visione"? In che modo noi "*pretendiamo* che l'intera comunità le sottoscriva o addirittura si impegni a propagandarle"? Dov'è che abbiamo negato che bisogna impegnarsi nella ricerca? Tu non sei d'accordo e non hai firmato, ma diverse decine di colleghi hanno manifestato il loro accordo con noi. Che da una descrizione testuale si possa capire la realtà è vero nel dominio matematico, che è svincolato dalla necessità di un supporto fisico concreto, ma nel resto della scienza è sempre la realtà che ha l'ultima parola. Una simulazione di un uragano non ti bagna, né quella di un incendio ti brucia, anche se possono essere entrambe molto utili. E se andiamo su domini vicini all'essere umano, beh, potrai leggere tutti i romanzi del mondo, ma se non hai mai provato amore, odio, felicità, tristezza... allora non capisci niente del mondo: e infatti i chatbot di terapia psicologica sono il caso applicativo più delicato e pericoloso. Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in questo momento. Con immutata stima, Enrico Il 07/05/2026 16:04, Giuseppe Attardi via nexa ha scritto:
Non ho criticato la petizione perché nega la necessità di un CERN for AI, ma perché parte da premesse discutibili e indica una direzione sbagliata.
Forse è sfuggito a molti che ha un’impostazione inaccettabile, perché chiede a tutti (la società) di impegnarsi a sostenere e diffondere una certa interpretazione della tecnologia, quella espressa nelle premesse: “Spiegare con precisione che cosa queste tecnologie sono davvero, e che cosa non sono” ossia che ad esempio "Sono molto potenti nel riorganizzare le informazioni già presenti nei dati, ma non costruiscono modelli del mondo nel senso in cui lo fanno gli esseri umani." Ci sono numerosi casi di risultati che non sono ottenibili “riorganizzando informazioni già presenti nei dati”. E quanto ai “modelli del mondo in senso umano” siamo nella metafisica: la fisica e la chimica sono descritte dai testi scientifici e le esperienze umane dalla letteratura. L’ampia letteratura di cui si alimentano i modelli fornisce una base sufficientemente ricca per consentire all'IA per comprendere la struttura del mondo, senza addentrarci nei modelli multimodali che incorporano segnali visivi o uditivi. I modelli JEPA di Yann LeCun già affrontano la questione direttamente. Ma non voglio addentrarmi qui nel confronto tecnico su opinioni: conta solo segnalare che ci sono opinioni diverse su "che cosa sono davvero questi sistemi, e a che punto siamo realmente”.
Siccome la scienza deve essere libera e autonoma, non si può pretendere di imporre a tutti la propria visione. Quelle espresse nelle premesse sono opinioni degli estensori della petizione, che hanno il diritto di esprimerle ma non possono pretendere che l’intera comunità le sottoscriva o che addirittura si impegni a propagandarle.
Come dicevo, si può essere d’accordo che serva formazione, ma questa non può prescindere dallo studio di una disciplina che è in rapida evoluzione. Quindi è importante impegnarsi nella ricerca anziché nelle critiche a risultati di altri, già in parte superati.
— Beppe
On 7 May 2026, at 13:05, Andrea Bolioli <andrea.bolioli@gmail.com> wrote:
Secondo me, se uno firma la lettera aperta alla società, non implica che sia contrario a creare un "CERN AI" . Credo che molti di noi sarebbero contenti se fosse già stato creato un "CERN AI" quattro anni fa invece di piccoli e deboli gruppi e progettini. La lettera non dice che non bisogna fare un "CERN AI", mi pare. Non entro invece nel dibattito sulla comprensione umana, ho già difficoltà a comprendere me stesso ;-) Credo che un obiettivo della lettera sia evitare che le persone non esperte di AI si innamorino dei sistemi GenAI o "rimbecilliscano" (c'è chi non riesce a fare quasi più nulla senza chiedere a GenAI), ecc.
Grazie per la ri-condivisione di CAIRNE .
AB
On Thu, May 7, 2026 at 11:45 AM Giuseppe Attardi via nexa <nexa@server-nexa.polito.it> wrote:
Sono alquanto perplesso sull’impostazione di questa petizione.
Se l’obiettivo è
“formare le persone a comprendere queste tecnologie” "Invitiamo la comunità accademica dell’informatica a contribuire attivamente a questa opera di chiarimento e formazione. Spiegare con precisione che cosa queste tecnologie sono davvero, e che cosa non sono, è un’opera di alfabetizzazione che è parte integrante del nostro lavoro di ricercatori e docenti.”
mi pare non solo ovvio ma limitativo. È un dovere degli studiosi e degli accademici di studiare e formare ricercatori e persone.
Ma "formare persone a comprendere” è piuttosto limitativo. Ciò che dovrebbe fare la comunità scientifica nazionale (mi immagino a questa sia rivolta la petizione) sarebbe di impegnarsi nello sviluppare e padroneggiare le attuali e future tecnologie di AI, generativa e non. La tecnologia del Deep Learning è in una fase evolutiva straordinaria, iniziata nel 2006 ed esplosa nel 2022, con "risultati tecnici impressionanti e inattesi” di cui la petizione stessa prende atto. Purtroppo la direzione della ricerca è attualmente dettata dagli ingenti investimenti in infrastrutture di calcolo e nella capacità di attrarre talenti di poche grandi aziende americane o cinesi: circa il 60% dei brevetti in AI è detenuto dalla Cina (https://www.wipo.int/pressroom/en/articles/2024/article_0009.html), il 40% dagli USA e 0,% dall’Europa. Il recente AI Index di Stanford (https://hai.stanford.edu/ai-index/2026-ai-index-report) indica che il livello raggiunto dai sistemi cinesi è ormai alla pari di quelli americani. Ma ci sono strade di ricerca da esplorare diverse da quelle guidate da interessi commerciali, e su questo si dovrebbe investire in Europa. Da tempo, con l’associazione CAIRNE (https://cairne.eu/cern-for-ai/) e di recente con l’appoggio del premio Nobel Giorgio Parisi, stiamo chiedendo la costituzione di un CERN for AI, un centro fisico (non le solite network che piacciono tanto ai funzionari europei, vedi RAISE https://www.coe-raise.eu/), dove concentrare gli investimenti e i ricercatori in AI, dotandoli della necessaria libertà di ricerca, per battere anche strade inesplorate.
Già adesso la ricerca sugli LLM è avanzata ben oltre modelli in grado di "stimare quale parola è più probabile in una frase”, come riporta Guido Vetere. Ci sono novità che riguardano gli aspetti di memorizzazione e di ragionamento, attraverso modelli ricorsivi che esaminano o controllano i propri processi. Non sappiamo dove queste ricerche porteranno, ma bisogna essere coinvolti e padroneggiare la tecnologia se la si vuole controllare o orientare.
Nella petizione invece si dà un'interpretazione del funzionamento di certi modelli, cadendo in luoghi comuni, del tipo "non equivalgono a comprensione nel senso umano del termine”, "non significa che capiscano ciò che stanno dicendo”, "non costruiscono modelli del mondo nel senso in cui lo fanno gli esseri umani". Non vale la pena controbattere a tali affermazioni per due motivi: 1. Non sappiamo cosa sia la “comprensione nel senso umano”, quindi affermare che un sistema NON ha qualcosa di indefinibile non ha molto senso 2. È comunque irrilevante porsi la domanda se “comprendono in senso umano”. È sicuro che operano in modo diverso dal nostro cervello, ma ciò non è necessariamente un difetto: conta se sono in grado di svolgere i compiti che gli affidiamo.
Su queste posizioni Walter Quattrociocchi sta conducendo da tempo una campagna di critica a tutto spiano, che purtroppo non accetta confronti: o sei d’accordo con lui o vieni bollato come “dotto ignorante” in pubblico (come accenna Guido Vetere). Eppure le mie posizioni hanno avuto il sostegno anche di Yoshua Bengio.
Si tratta quindi di una battaglia di retroguardia, che incita contro qualcosa che è ben diverso da come lo si rappresenta.
Quindi non firmerò questa petizione.
— Beppe
On 7 May 2026, at 09:05, nexa-request@server-nexa.polito.it wrote:
From: Guido Vetere <vetere.guido@gmail.com> Subject: [nexa] Re: Una visione realistica dell’Intelligenza Artificiale - Lettera aperta alla società To: Juan Carlos De Martin <demartin@polito.it>, "J.C. DE MARTIN" <juancarlos.demartin@polito.it> Cc: Nexa <nexa@server-nexa.polito.it> Message-ID: <FC0A4619-AADC-48A7-9B1B-DD6D053720BE@gmail.com> Content-Type: multipart/alternative; boundary="Apple-Mail=_8C50A1EB-3894-460E-B636-1DBBFE8FF2B2"
“Quando sembrano ragionare, combinano schemi appresi dai dati. Quando sembrano sapere qualcosa, producono l’output statisticamente più coerente con il contesto, senza avere accesso diretto al mondo o a meccanismi autonomi di verifica.”
Tuttavia bisogna prendere in considerazione il fatto che i sistemi generativi attuali non sono più semplici (si fa per dire) “predittori del prossimo token”. La differenza tra Claude, ChatGPT, Gemini, etc. ormai non è più tanto nel modello di base, quanto nell’harness, cioè nella orchestrazione di runtime fatta di cicli interni, uso di tool, valutazione del contesto, etc. I sistemi generativi sono diventati ensemble di agenti, come spiegava Anthropic già nel 2024 (https://www.anthropic.com/engineering/building-effective-agents) – il che spiega anche come mai Claude abbia preso il sopravvento. Se questo è vero, bisogna tornare su quell’”accesso diretto al mondo” e quei “meccanismi autonomi di verifica”, per valutare come e quanto siano fattori differenziali. Sappiamo che la terra non è piatta perché l’abbiamo visto? O ci siamo messi a fare esperimenti? Non si può essere “realisti” al punto da ignorare che la nostra conoscenza è un fatto sociale che passa per la testualità, non bisogna aver letto Gadamer e Ricoeur.
Detto questo, ma fa piacere che l’appello (che ovviamente non firmerò) sia promosso da Enrico Nardelli, con cui spero che – al contrario di Quattrociocchi – si possa fare una discussione seria.
Guido
Il giorno 7 mag 2026, alle ore 07:52, J.C. DE MARTIN via nexa <nexa@server-nexa.polito.it> ha scritto:
Vi segnalo questa lettera aperta:https://www.petizioni.com/visione_realistica_intelligenza_artificiale
Uno dei promotori è l'amico Enrico Nardelli, ben noto a chi frequenta questa lista.
JC
-- -- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
Tuttavia, quando vi si fa osservare – dati alla mano – che le piattaforme generative (da non confondere coi language model) fanno ben altro che predire stocasticamente il “prossimo token”, non arrivano repliche. La “verità” sulla quale chiamate a raccolta l’intera comunità scientifica è in effetti una opinione, e anche molto discutibile a quanto pare (ironico, per chi parla di “epistemia”). Se proprio si vuol fare la conta, non sarebbe più onesto fare un sondaggio o un questionario, piuttosto che una petizione? Perché invece di un appello all’autorità accademica (!) su qualcosa di controverso non si fa una onesta discussione di merito? Questo sarebbe anche un posto giusto. La petizione che avete proposto rischia anche di essere regressiva, specularmente all’intervista di Veltroni. Capire bene come stanno le cose è fondamentale per indirizzare la ricerca nella direzione del progresso (vs. del profitto), e se qualcuno che ha fatto l’NLP in Italia (parlo di Beppe, naturalmente) dice che state sbagliando qualcosa, forse sarebbe il caso di parlarne con calma. G. Il giorno 7 mag 2026, alle ore 18:40, Enrico Nardelli via nexa < nexa@server-nexa.polito.it> ha scritto: Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in questo momento.
Perdonami Guido osservo preliminarmente che le piattaforma generative testuali SONO basate sugli LLM, quindi quello che producono viene dagli LLM. Quando si parla di Intelligenza Artificiale generativa in ambito testuale, che è quello più rilevante quando si parla di intelligenza e comprensione, si parla di LLM. Non intorbidiamo le acque. Poi, sei tu che hai l'onere di fornire la prova «che le piattaforme generative fanno ben altro che predire stocasticamente il “prossimo token”». Giacomo Tesio in un altro messaggio oggi ha chiesto Il 07/05/2026 18:28, Giacomo Tesio via nexa ha scritto:
Ciao Giuseppe,
On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote:
Ci sono numerosi casi di risultati che non sono ottenibili “riorganizzando informazioni già presenti nei dati”. Puoi condividere un paio di esempi riproducibili?
Giusto per non limitarsi ad aneddoti commerciali.
Stiamo ancora aspettando la risposta. Che gli LLM funzionino esattamente come predittori del prossimo token, con una serie di ammenicoli di contorno che non cambiano la loro natura di fondo, è spiegato - tra l'altro - nello studio citato in questo articolo https://www.computerworld.com/article/4059383/openai-admits-ai-hallucination... «/In a landmark study, OpenAI researchers reveal that large language models will always produce plausible but false outputs, even with perfect data, due to fundamental statistical and computational limits./» Ribadisco quanto ho scritto nella mia prima risposta a Beppe: /il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in questo momento./ Stefano Quintarelli, in una mail di poco fa, ha fatto un'ulteriore osservazione che chiunque si occupi di dimostrare in modo galileiano la natura di un qualche fenomeno dovrebbe ben tener presente (la riformulo con parole mie): siamo sicuri che non esistono altre cause che spieghino lo stesso risultato? Quindi, d'ora in avanti, smetterò di replicare ad argomenti che non siano fondati su evidenze sperimentali, vaste, robuste e riproducibili. Buona notte, Enrico Il 07/05/2026 22:49, Guido Vetere ha scritto:
Tuttavia, quando vi si fa osservare – dati alla mano – che le piattaforme generative (da non confondere coi language model) fanno ben altro che predire stocasticamente il “prossimo token”, non arrivano repliche. La “verità” sulla quale chiamate a raccolta l’intera comunità scientifica è in effetti una opinione, e anche molto discutibile a quanto pare (ironico, per chi parla di “epistemia”). Se proprio si vuol fare la conta, non sarebbe più onesto fare un sondaggio o un questionario, piuttosto che una petizione? Perché invece di un appello all’autorità accademica (!) su qualcosa di controverso non si fa una onesta discussione di merito? Questo sarebbe anche un posto giusto. La petizione che avete proposto rischia anche di essere regressiva, specularmente all’intervista di Veltroni. Capire bene come stanno le cose è fondamentale per indirizzare la ricerca nella direzione del progresso (vs. del profitto), e se qualcuno che ha fatto l’NLP in Italia (parlo di Beppe, naturalmente) dice che state sbagliando qualcosa, forse sarebbe il caso di parlarne con calma.
G.
Il giorno 7 mag 2026, alle ore 18:40, Enrico Nardelli via nexa <nexa@server-nexa.polito.it> ha scritto:
Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in questo momento.
-- -- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
Caro Enrico, spero che la tua notte sia trascorsa serena. Quando dici che "le piattaforma generative testuali SONO basate sugli LLM” e inviti me a non intorbidire le acque, è come se dicessi che le automobili si muovono sulle ruote, dunque SONO ruote. Si tratta di un errore mereologico (di composizione, pars pro toto) abbastanza frequente, che mostra quanto sia fragile anche la nostra vantata razionalità. Su quello che avviene dentro i sistemi generativi attuali, benché i segreti industriali siano gelosamente conservati, si trova molta letteratura. Basti però ricordare che il recente leak del codice di Claude ha esposto mezzo milione di righe TypeScript, che trovi comodamente su GitHub [https://github.com/codeaashu/claude-code]. E no, non sono i pesi del modello, dunque li puoi ispezionare. Enjoy. Ma visto che vogliamo essere galileiani, facciamo un piccolo esperimento. Se ora chiedi a Sonnet “Che tempo fa domani a Parigi?”, ti risponderà qualcosa del tipo: Domani a Parigi (sabato 9 maggio) dovrebbe essere una bella giornata: soleggiato, con massima di 24°C e solo un 20% di probabilità di pioggia. Domenica invece peggiora un po', con copertura nuvolosa e probabilità di pioggia al 45%. Secondo te una risposta del genere può essere stata prodotta prevedendo i token su base statistica? Che statistiche abbiamo sul futuro? Quello che avviene in quel mezzo milione di righe di codice è che la richiesta viene analizzata e classificata (intent detection), i tool opportuni identificati (si tratterà di servizi meteo), le parti parametriche estratte (Parigi, domani), i tool attivati, i loro risultati confrontati, la sintesi passata al modello come ground-truth mediante un prompt che verosimilmente chiederà a Sonnet di confezionare la risposta all’utente basandosi puntualmente su quei dati. A quel punto, la stocastica può al più determinare questioni di rendering linguistico. La partita della verità, che tanto sta a cuore a chi parla di ‘epistemia’, si gioca nel campo di chi fa i servizi meteo – gli stessi che tu consulti tranquillamente dopo aver preso il caffè la mattina. E con questo ti auguro cordialmente buona giornata. Guido
Il giorno 7 mag 2026, alle ore 23:51, Enrico Nardelli via nexa <nexa@server-nexa.polito.it> ha scritto:
Perdonami Guido
osservo preliminarmente che le piattaforma generative testuali SONO basate sugli LLM, quindi quello che producono viene dagli LLM. Quando si parla di Intelligenza Artificiale generativa in ambito testuale, che è quello più rilevante quando si parla di intelligenza e comprensione, si parla di LLM. Non intorbidiamo le acque.
Poi, sei tu che hai l'onere di fornire la prova «che le piattaforme generative fanno ben altro che predire stocasticamente il “prossimo token”».
Giacomo Tesio in un altro messaggio oggi ha chiesto
Il 07/05/2026 18:28, Giacomo Tesio via nexa ha scritto:
Ciao Giuseppe,
On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote:
Ci sono numerosi casi di risultati che non sono ottenibili “riorganizzando informazioni già presenti nei dati”. Puoi condividere un paio di esempi riproducibili?
Giusto per non limitarsi ad aneddoti commerciali. Stiamo ancora aspettando la risposta.
Che gli LLM funzionino esattamente come predittori del prossimo token, con una serie di ammenicoli di contorno che non cambiano la loro natura di fondo, è spiegato - tra l'altro - nello studio citato in questo articolo https://www.computerworld.com/article/4059383/openai-admits-ai-hallucination...
«In a landmark study, OpenAI researchers reveal that large language models will always produce plausible but false outputs, even with perfect data, due to fundamental statistical and computational limits.»
Ribadisco quanto ho scritto nella mia prima risposta a Beppe:
il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in questo momento.
Stefano Quintarelli, in una mail di poco fa, ha fatto un'ulteriore osservazione che chiunque si occupi di dimostrare in modo galileiano la natura di un qualche fenomeno dovrebbe ben tener presente (la riformulo con parole mie): siamo sicuri che non esistono altre cause che spieghino lo stesso risultato?
Quindi, d'ora in avanti, smetterò di replicare ad argomenti che non siano fondati su evidenze sperimentali, vaste, robuste e riproducibili.
Buona notte, Enrico
Il 07/05/2026 22:49, Guido Vetere ha scritto:
Tuttavia, quando vi si fa osservare – dati alla mano – che le piattaforme generative (da non confondere coi language model) fanno ben altro che predire stocasticamente il “prossimo token”, non arrivano repliche. La “verità” sulla quale chiamate a raccolta l’intera comunità scientifica è in effetti una opinione, e anche molto discutibile a quanto pare (ironico, per chi parla di “epistemia”). Se proprio si vuol fare la conta, non sarebbe più onesto fare un sondaggio o un questionario, piuttosto che una petizione? Perché invece di un appello all’autorità accademica (!) su qualcosa di controverso non si fa una onesta discussione di merito? Questo sarebbe anche un posto giusto. La petizione che avete proposto rischia anche di essere regressiva, specularmente all’intervista di Veltroni. Capire bene come stanno le cose è fondamentale per indirizzare la ricerca nella direzione del progresso (vs. del profitto), e se qualcuno che ha fatto l’NLP in Italia (parlo di Beppe, naturalmente) dice che state sbagliando qualcosa, forse sarebbe il caso di parlarne con calma.
G.
Il giorno 7 mag 2026, alle ore 18:40, Enrico Nardelli via nexa <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> ha scritto:
Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in questo momento.
-- -- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html <SXK2RJtn2vzsq6qC.png> ====================================================== Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it <mailto:nardelli@mat.uniroma2.it> online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ======================================================
--
Buondì, mi piacerebbe capire se è corretto dire la cosa seguente: dato il prompt “Che tempo fa domani a Parigi?” la piattaforma prevede che "il token più probabile" (sto semplificando) è quello fornito dall'output dell'invocazione di un servizio meteo. Cioè, sempre semplificando, la piattaforma integra diverse componenti che certamente affinano la qualità del risultato e lo fanno assomigliare sempre più a quello che in una persona chiamiamo comprensione e ragionamento, ma questa integrazione continua ad avere come base di fondo correlazioni probabilistiche. Grazie, Silvia
On 8 May 2026, at 09:24, Guido Vetere via nexa <nexa@server-nexa.polito.it> wrote:
Caro Enrico, spero che la tua notte sia trascorsa serena.
Quando dici che "le piattaforma generative testuali SONO basate sugli LLM” e inviti me a non intorbidire le acque, è come se dicessi che le automobili si muovono sulle ruote, dunque SONO ruote. Si tratta di un errore mereologico (di composizione, pars pro toto) abbastanza frequente, che mostra quanto sia fragile anche la nostra vantata razionalità.
Su quello che avviene dentro i sistemi generativi attuali, benché i segreti industriali siano gelosamente conservati, si trova molta letteratura. Basti però ricordare che il recente leak del codice di Claude ha esposto mezzo milione di righe TypeScript, che trovi comodamente su GitHub [https://github.com/codeaashu/claude-code]. E no, non sono i pesi del modello, dunque li puoi ispezionare. Enjoy.
Ma visto che vogliamo essere galileiani, facciamo un piccolo esperimento.
Se ora chiedi a Sonnet “Che tempo fa domani a Parigi?”, ti risponderà qualcosa del tipo:
Domani a Parigi (sabato 9 maggio) dovrebbe essere una bella giornata: soleggiato, con massima di 24°C e solo un 20% di probabilità di pioggia. Domenica invece peggiora un po', con copertura nuvolosa e probabilità di pioggia al 45%.
Secondo te una risposta del genere può essere stata prodotta prevedendo i token su base statistica? Che statistiche abbiamo sul futuro?
Quello che avviene in quel mezzo milione di righe di codice è che la richiesta viene analizzata e classificata (intent detection), i tool opportuni identificati (si tratterà di servizi meteo), le parti parametriche estratte (Parigi, domani), i tool attivati, i loro risultati confrontati, la sintesi passata al modello come ground-truth mediante un prompt che verosimilmente chiederà a Sonnet di confezionare la risposta all’utente basandosi puntualmente su quei dati. A quel punto, la stocastica può al più determinare questioni di rendering linguistico. La partita della verità, che tanto sta a cuore a chi parla di ‘epistemia’, si gioca nel campo di chi fa i servizi meteo – gli stessi che tu consulti tranquillamente dopo aver preso il caffè la mattina.
E con questo ti auguro cordialmente buona giornata.
Guido
Il giorno 7 mag 2026, alle ore 23:51, Enrico Nardelli via nexa <nexa@server-nexa.polito.it> ha scritto:
Perdonami Guido osservo preliminarmente che le piattaforma generative testuali SONO basate sugli LLM, quindi quello che producono viene dagli LLM. Quando si parla di Intelligenza Artificiale generativa in ambito testuale, che è quello più rilevante quando si parla di intelligenza e comprensione, si parla di LLM. Non intorbidiamo le acque. Poi, sei tu che hai l'onere di fornire la prova «che le piattaforme generative fanno ben altro che predire stocasticamente il “prossimo token”». Giacomo Tesio in un altro messaggio oggi ha chiesto Il 07/05/2026 18:28, Giacomo Tesio via nexa ha scritto:
Ciao Giuseppe,
On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote:
Ci sono numerosi casi di risultati che non sono ottenibili “riorganizzando informazioni già presenti nei dati”.
Puoi condividere un paio di esempi riproducibili?
Giusto per non limitarsi ad aneddoti commerciali.
Stiamo ancora aspettando la risposta. Che gli LLM funzionino esattamente come predittori del prossimo token, con una serie di ammenicoli di contorno che non cambiano la loro natura di fondo, è spiegato - tra l'altro - nello studio citato in questo articolo https://www.computerworld.com/article/4059383/openai-admits-ai-hallucination... «In a landmark study, OpenAI researchers reveal that large language models will always produce plausible but false outputs, even with perfect data, due to fundamental statistical and computational limits.» Ribadisco quanto ho scritto nella mia prima risposta a Beppe:
il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in questo momento.
Stefano Quintarelli, in una mail di poco fa, ha fatto un'ulteriore osservazione che chiunque si occupi di dimostrare in modo galileiano la natura di un qualche fenomeno dovrebbe ben tener presente (la riformulo con parole mie): siamo sicuri che non esistono altre cause che spieghino lo stesso risultato?
Quindi, d'ora in avanti, smetterò di replicare ad argomenti che non siano fondati su evidenze sperimentali, vaste, robuste e riproducibili.
Buona notte, Enrico
Il 07/05/2026 22:49, Guido Vetere ha scritto:
Tuttavia, quando vi si fa osservare – dati alla mano – che le piattaforme generative (da non confondere coi language model) fanno ben altro che predire stocasticamente il “prossimo token”, non arrivano repliche. La “verità” sulla quale chiamate a raccolta l’intera comunità scientifica è in effetti una opinione, e anche molto discutibile a quanto pare (ironico, per chi parla di “epistemia”). Se proprio si vuol fare la conta, non sarebbe più onesto fare un sondaggio o un questionario, piuttosto che una petizione? Perché invece di un appello all’autorità accademica (!) su qualcosa di controverso non si fa una onesta discussione di merito? Questo sarebbe anche un posto giusto. La petizione che avete proposto rischia anche di essere regressiva, specularmente all’intervista di Veltroni. Capire bene come stanno le cose è fondamentale per indirizzare la ricerca nella direzione del progresso (vs. del profitto), e se qualcuno che ha fatto l’NLP in Italia (parlo di Beppe, naturalmente) dice che state sbagliando qualcosa, forse sarebbe il caso di parlarne con calma.
G.
Il giorno 7 mag 2026, alle ore 18:40, Enrico Nardelli via nexa <nexa@server-nexa.polito.it> ha scritto:
Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in questo momento.
-- -- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html <SXK2RJtn2vzsq6qC.png> ====================================================== Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
Buongiorno, grazie per il dibattito molto utile. On Fri, May 8, 2026 at 10:21 AM Silvia Crafa via nexa < nexa@server-nexa.polito.it> wrote:
Buondì, mi piacerebbe capire se è corretto dire la cosa seguente:
dato il prompt “Che tempo fa domani a Parigi?” la piattaforma prevede che "il token più probabile" (sto semplificando) è quello fornito dall'output dell'invocazione di un servizio meteo.
NO. Nei sistemi GenAI gli LLM sono una componente, gli altri componenti interagiscono in modo simile ad altri software. Guido Vetere ha sinteticamente descritto i sistemi GenAI prima.
Cioè, sempre semplificando, la piattaforma integra diverse componenti che certamente affinano la qualità del risultato e lo fanno assomigliare sempre più a quello che in una persona chiamiamo comprensione e ragionamento, ma questa integrazione continua ad avere come base di fondo correlazioni probabilistiche.
NO. Gli LLM testuali funzionano con la previsione del "token più probabile", semplificando la faccenda. I sistemi GenAI hanno diverse componenti a monte e a valle che è difficile riassumere in poche frasi. In ogni caso, gli LLM testuali non sono dei "cervelloni", non hanno volontà, non provano emozioni, non fanno bene i calcoli, ecc Fanno bene i riassunti, le parafrasi, gli articoli scientifici ( ;-) ), ecc Buona giornata, Andrea
Grazie, Silvia
On 8 May 2026, at 09:24, Guido Vetere via nexa < nexa@server-nexa.polito.it> wrote:
Caro Enrico, spero che la tua notte sia trascorsa serena.
Quando dici che "le piattaforma generative testuali SONO basate sugli LLM” e inviti me a non intorbidire le acque, è come se dicessi che le automobili si muovono sulle ruote, dunque SONO ruote. Si tratta di un errore mereologico (di composizione, pars pro toto) abbastanza frequente, che mostra quanto sia fragile anche la nostra vantata razionalità.
Su quello che avviene dentro i sistemi generativi attuali, benché i segreti industriali siano gelosamente conservati, si trova molta letteratura. Basti però ricordare che il recente leak del codice di Claude ha esposto mezzo milione di righe TypeScript, che trovi comodamente su GitHub [https://github.com/codeaashu/claude-code]. E no, non sono i pesi del modello, dunque li puoi ispezionare. Enjoy.
Ma visto che vogliamo essere galileiani, facciamo un piccolo esperimento.
Se ora chiedi a Sonnet “Che tempo fa domani a Parigi?”, ti risponderà qualcosa del tipo:
Domani a Parigi (sabato 9 maggio) dovrebbe essere una bella giornata: soleggiato, con massima di 24°C e solo un 20% di probabilità di pioggia. Domenica invece peggiora un po', con copertura nuvolosa e probabilità di pioggia al 45%.
Secondo te una risposta del genere può essere stata prodotta prevedendo i token su base statistica? Che statistiche abbiamo sul futuro?
Quello che avviene in quel mezzo milione di righe di codice è che la richiesta viene analizzata e classificata (intent detection), i tool opportuni identificati (si tratterà di servizi meteo), le parti parametriche estratte (Parigi, domani), i tool attivati, i loro risultati confrontati, la sintesi passata al modello come ground-truth mediante un prompt che verosimilmente chiederà a Sonnet di confezionare la risposta all’utente basandosi puntualmente su quei dati. A quel punto, la stocastica può al più determinare questioni di rendering linguistico. La partita della verità, che tanto sta a cuore a chi parla di ‘epistemia’, si gioca nel campo di chi fa i servizi meteo – gli stessi che tu consulti tranquillamente dopo aver preso il caffè la mattina.
E con questo ti auguro cordialmente buona giornata.
Guido
Il giorno 7 mag 2026, alle ore 23:51, Enrico Nardelli via nexa < nexa@server-nexa.polito.it> ha scritto:
Perdonami Guido osservo preliminarmente che le piattaforma generative testuali SONO basate sugli LLM, quindi quello che producono viene dagli LLM. Quando si parla di Intelligenza Artificiale generativa in ambito testuale, che è quello più rilevante quando si parla di intelligenza e comprensione, si parla di LLM. Non intorbidiamo le acque. Poi, sei tu che hai l'onere di fornire la prova «che le piattaforme generative fanno ben altro che predire stocasticamente il “prossimo token”». Giacomo Tesio in un altro messaggio oggi ha chiesto Il 07/05/2026 18:28, Giacomo Tesio via nexa ha scritto:
Ciao Giuseppe,
On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote:
Ci sono numerosi casi di risultati che non sono ottenibili “riorganizzando informazioni già presenti nei dati”.
Puoi condividere un paio di esempi riproducibili?
Giusto per non limitarsi ad aneddoti commerciali.
Stiamo ancora aspettando la risposta. Che gli LLM funzionino esattamente come predittori del prossimo token, con una serie di ammenicoli di contorno che non cambiano la loro natura di fondo, è spiegato - tra l'altro - nello studio citato in questo articolo https://www.computerworld.com/article/4059383/openai-admits-ai-hallucination... «In a landmark study, OpenAI researchers reveal that large language models will always produce plausible but false outputs, even with perfect data, due to fundamental statistical and computational limits.» Ribadisco quanto ho scritto nella mia prima risposta a Beppe:
il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in questo momento.
Stefano Quintarelli, in una mail di poco fa, ha fatto un'ulteriore osservazione che chiunque si occupi di dimostrare in modo galileiano la natura di un qualche fenomeno dovrebbe ben tener presente (la riformulo con parole mie): siamo sicuri che non esistono altre cause che spieghino lo stesso risultato?
Quindi, d'ora in avanti, smetterò di replicare ad argomenti che non siano fondati su evidenze sperimentali, vaste, robuste e riproducibili.
Buona notte, Enrico
Il 07/05/2026 22:49, Guido Vetere ha scritto:
Tuttavia, quando vi si fa osservare – dati alla mano – che le piattaforme generative (da non confondere coi language model) fanno ben altro che predire stocasticamente il “prossimo token”, non arrivano repliche. La “verità” sulla quale chiamate a raccolta l’intera comunità scientifica è in effetti una opinione, e anche molto discutibile a quanto pare (ironico, per chi parla di “epistemia”). Se proprio si vuol fare la conta, non sarebbe più onesto fare un sondaggio o un questionario, piuttosto che una petizione? Perché invece di un appello all’autorità accademica (!) su qualcosa di controverso non si fa una onesta discussione di merito? Questo sarebbe anche un posto giusto. La petizione che avete proposto rischia anche di essere regressiva, specularmente all’intervista di Veltroni. Capire bene come stanno le cose è fondamentale per indirizzare la ricerca nella direzione del progresso (vs. del profitto), e se qualcuno che ha fatto l’NLP in Italia (parlo di Beppe, naturalmente) dice che state sbagliando qualcosa, forse sarebbe il caso di parlarne con calma.
G.
Il giorno 7 mag 2026, alle ore 18:40, Enrico Nardelli via nexa < nexa@server-nexa.polito.it> ha scritto:
Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in questo momento.
-- -- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html <SXK2RJtn2vzsq6qC.png> ======================================================
Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
Buongiorno Silvia, Sicuramente la classificazione dell’intento è probabilistica (peraltro la fanno verosimilmente con modellini molto leggeri, non servono i billion parameters), se l’intento è associato (deterministicamente) a uno o più tool, allora i parametri di attivazione di quei tool sono estratti dalla domanda (o anche dal contesto conversazione, ma semplifichiamo) sempre in modo probabilistico, ancora presumibilmente con qualcosa di molto leggero. I dati forniti dai tool devono poi essere integrati, e qui intervengono euristiche che vai a sapere, ma si tratta di ragionamenti ipotetici, cioè abduttivi, cioè semi-razionali, con buona pace di chi si ostina a non capirlo. Confezionata la ‘ground truth’, come dicevo, si tratta infine solo di tornire la frase, cioè il modello linguistico torna a fare ciò a cui deve il nome: generare linguaggio. Il contenuto epistemico sta altrove (database, sensori, whatever), e non è meno razionale di quello che consumiamo normalmente nella nostra sfera informativa. Spero sia utile, Guido
Il giorno 8 mag 2026, alle ore 10:14, Silvia Crafa via nexa <nexa@server-nexa.polito.it> ha scritto:
Buondì, mi piacerebbe capire se è corretto dire la cosa seguente:
dato il prompt “Che tempo fa domani a Parigi?” la piattaforma prevede che "il token più probabile" (sto semplificando) è quello fornito dall'output dell'invocazione di un servizio meteo.
Cioè, sempre semplificando, la piattaforma integra diverse componenti che certamente affinano la qualità del risultato e lo fanno assomigliare sempre più a quello che in una persona chiamiamo comprensione e ragionamento, ma questa integrazione continua ad avere come base di fondo correlazioni probabilistiche.
Grazie, Silvia
On 8 May 2026, at 09:24, Guido Vetere via nexa <nexa@server-nexa.polito.it> wrote:
Caro Enrico, spero che la tua notte sia trascorsa serena.
Quando dici che "le piattaforma generative testuali SONO basate sugli LLM” e inviti me a non intorbidire le acque, è come se dicessi che le automobili si muovono sulle ruote, dunque SONO ruote. Si tratta di un errore mereologico (di composizione, pars pro toto) abbastanza frequente, che mostra quanto sia fragile anche la nostra vantata razionalità.
Su quello che avviene dentro i sistemi generativi attuali, benché i segreti industriali siano gelosamente conservati, si trova molta letteratura. Basti però ricordare che il recente leak del codice di Claude ha esposto mezzo milione di righe TypeScript, che trovi comodamente su GitHub [https://github.com/codeaashu/claude-code]. E no, non sono i pesi del modello, dunque li puoi ispezionare. Enjoy.
Ma visto che vogliamo essere galileiani, facciamo un piccolo esperimento.
Se ora chiedi a Sonnet “Che tempo fa domani a Parigi?”, ti risponderà qualcosa del tipo:
Domani a Parigi (sabato 9 maggio) dovrebbe essere una bella giornata: soleggiato, con massima di 24°C e solo un 20% di probabilità di pioggia. Domenica invece peggiora un po', con copertura nuvolosa e probabilità di pioggia al 45%.
Secondo te una risposta del genere può essere stata prodotta prevedendo i token su base statistica? Che statistiche abbiamo sul futuro?
Quello che avviene in quel mezzo milione di righe di codice è che la richiesta viene analizzata e classificata (intent detection), i tool opportuni identificati (si tratterà di servizi meteo), le parti parametriche estratte (Parigi, domani), i tool attivati, i loro risultati confrontati, la sintesi passata al modello come ground-truth mediante un prompt che verosimilmente chiederà a Sonnet di confezionare la risposta all’utente basandosi puntualmente su quei dati. A quel punto, la stocastica può al più determinare questioni di rendering linguistico. La partita della verità, che tanto sta a cuore a chi parla di ‘epistemia’, si gioca nel campo di chi fa i servizi meteo – gli stessi che tu consulti tranquillamente dopo aver preso il caffè la mattina.
E con questo ti auguro cordialmente buona giornata.
Guido
Il giorno 7 mag 2026, alle ore 23:51, Enrico Nardelli via nexa <nexa@server-nexa.polito.it> ha scritto:
Perdonami Guido osservo preliminarmente che le piattaforma generative testuali SONO basate sugli LLM, quindi quello che producono viene dagli LLM. Quando si parla di Intelligenza Artificiale generativa in ambito testuale, che è quello più rilevante quando si parla di intelligenza e comprensione, si parla di LLM. Non intorbidiamo le acque. Poi, sei tu che hai l'onere di fornire la prova «che le piattaforme generative fanno ben altro che predire stocasticamente il “prossimo token”». Giacomo Tesio in un altro messaggio oggi ha chiesto Il 07/05/2026 18:28, Giacomo Tesio via nexa ha scritto:
Ciao Giuseppe,
On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote:
Ci sono numerosi casi di risultati che non sono ottenibili “riorganizzando informazioni già presenti nei dati”.
Puoi condividere un paio di esempi riproducibili?
Giusto per non limitarsi ad aneddoti commerciali.
Stiamo ancora aspettando la risposta. Che gli LLM funzionino esattamente come predittori del prossimo token, con una serie di ammenicoli di contorno che non cambiano la loro natura di fondo, è spiegato - tra l'altro - nello studio citato in questo articolo https://www.computerworld.com/article/4059383/openai-admits-ai-hallucination... «In a landmark study, OpenAI researchers reveal that large language models will always produce plausible but false outputs, even with perfect data, due to fundamental statistical and computational limits.» Ribadisco quanto ho scritto nella mia prima risposta a Beppe:
il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in questo momento.
Stefano Quintarelli, in una mail di poco fa, ha fatto un'ulteriore osservazione che chiunque si occupi di dimostrare in modo galileiano la natura di un qualche fenomeno dovrebbe ben tener presente (la riformulo con parole mie): siamo sicuri che non esistono altre cause che spieghino lo stesso risultato?
Quindi, d'ora in avanti, smetterò di replicare ad argomenti che non siano fondati su evidenze sperimentali, vaste, robuste e riproducibili.
Buona notte, Enrico
Il 07/05/2026 22:49, Guido Vetere ha scritto:
Tuttavia, quando vi si fa osservare – dati alla mano – che le piattaforme generative (da non confondere coi language model) fanno ben altro che predire stocasticamente il “prossimo token”, non arrivano repliche. La “verità” sulla quale chiamate a raccolta l’intera comunità scientifica è in effetti una opinione, e anche molto discutibile a quanto pare (ironico, per chi parla di “epistemia”). Se proprio si vuol fare la conta, non sarebbe più onesto fare un sondaggio o un questionario, piuttosto che una petizione? Perché invece di un appello all’autorità accademica (!) su qualcosa di controverso non si fa una onesta discussione di merito? Questo sarebbe anche un posto giusto. La petizione che avete proposto rischia anche di essere regressiva, specularmente all’intervista di Veltroni. Capire bene come stanno le cose è fondamentale per indirizzare la ricerca nella direzione del progresso (vs. del profitto), e se qualcuno che ha fatto l’NLP in Italia (parlo di Beppe, naturalmente) dice che state sbagliando qualcosa, forse sarebbe il caso di parlarne con calma.
G.
Il giorno 7 mag 2026, alle ore 18:40, Enrico Nardelli via nexa <nexa@server-nexa.polito.it> ha scritto:
Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in questo momento.
-- -- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html <SXK2RJtn2vzsq6qC.png> ====================================================== Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
Aggiungo un altro esempio semplice: le notizie finanziarie scritte ("Nella congiuntura attuale ecc ecc le azioni xxx ecc") sono in gran parte generate automaticamente a partire da "tabelle" di dati . I numeri e i dati di partenza ci sono; la notizia non viene scritta da una persona ma generata automaticamente. Si tratta di Natural Language Generation, che ha iniziato a funzionare bene 6 anni fa con i GPT (Generative Pre-trained Transformers). Altro esempio in ambito testuale: molte email aziendali vengono generate automaticamente a partire da qualche contenuto. Se passiamo in ambito multimediale o anche solo a grafica + testi: le slides, i report, ecc possono essere generati automaticamente. Anche in questo caso, si può in teoria far "inventare" tutto quanto ai sistemi GenAI oppure partire da dati e contenuti affidabili, e/o integrare a valle con correzioni e altri contenuti. Scusate gli esempi molto semplici. In generale, nei sistemi GenAI ci sono componenti preponderanti di neural networks ma anche componenti software deterministice. AB On Fri, May 8, 2026 at 11:22 AM Guido Vetere via nexa < nexa@server-nexa.polito.it> wrote:
Buongiorno Silvia, Sicuramente la classificazione dell’intento è probabilistica (peraltro la fanno verosimilmente con modellini molto leggeri, non servono i billion parameters), se l’intento è associato (deterministicamente) a uno o più tool, allora i parametri di attivazione di quei tool sono estratti dalla domanda (o anche dal contesto conversazione, ma semplifichiamo) sempre in modo probabilistico, ancora presumibilmente con qualcosa di molto leggero. I dati forniti dai tool devono poi essere integrati, e qui intervengono euristiche che vai a sapere, ma si tratta di ragionamenti ipotetici, cioè abduttivi, cioè semi-razionali, con buona pace di chi si ostina a non capirlo. Confezionata la ‘ground truth’, come dicevo, si tratta infine solo di tornire la frase, cioè il modello linguistico torna a fare ciò a cui deve il nome: generare linguaggio. Il contenuto epistemico sta altrove (database, sensori, whatever), e non è meno razionale di quello che consumiamo normalmente nella nostra sfera informativa.
Spero sia utile, Guido
Il giorno 8 mag 2026, alle ore 10:14, Silvia Crafa via nexa < nexa@server-nexa.polito.it> ha scritto:
Buondì, mi piacerebbe capire se è corretto dire la cosa seguente:
dato il prompt “Che tempo fa domani a Parigi?” la piattaforma prevede che "il token più probabile" (sto semplificando) è quello fornito dall'output dell'invocazione di un servizio meteo.
Cioè, sempre semplificando, la piattaforma integra diverse componenti che certamente affinano la qualità del risultato e lo fanno assomigliare sempre più a quello che in una persona chiamiamo comprensione e ragionamento, ma questa integrazione continua ad avere come base di fondo correlazioni probabilistiche.
Grazie, Silvia
On 8 May 2026, at 09:24, Guido Vetere via nexa < nexa@server-nexa.polito.it> wrote:
Caro Enrico, spero che la tua notte sia trascorsa serena.
Quando dici che "le piattaforma generative testuali SONO basate sugli LLM” e inviti me a non intorbidire le acque, è come se dicessi che le automobili si muovono sulle ruote, dunque SONO ruote. Si tratta di un errore mereologico (di composizione, pars pro toto) abbastanza frequente, che mostra quanto sia fragile anche la nostra vantata razionalità.
Su quello che avviene dentro i sistemi generativi attuali, benché i segreti industriali siano gelosamente conservati, si trova molta letteratura. Basti però ricordare che il recente leak del codice di Claude ha esposto mezzo milione di righe TypeScript, che trovi comodamente su GitHub [https://github.com/codeaashu/claude-code]. E no, non sono i pesi del modello, dunque li puoi ispezionare. Enjoy.
Ma visto che vogliamo essere galileiani, facciamo un piccolo esperimento.
Se ora chiedi a Sonnet “Che tempo fa domani a Parigi?”, ti risponderà qualcosa del tipo:
Domani a Parigi (sabato 9 maggio) dovrebbe essere una bella giornata: soleggiato, con massima di 24°C e solo un 20% di probabilità di pioggia. Domenica invece peggiora un po', con copertura nuvolosa e probabilità di pioggia al 45%.
Secondo te una risposta del genere può essere stata prodotta prevedendo i token su base statistica? Che statistiche abbiamo sul futuro?
Quello che avviene in quel mezzo milione di righe di codice è che la richiesta viene analizzata e classificata (intent detection), i tool opportuni identificati (si tratterà di servizi meteo), le parti parametriche estratte (Parigi, domani), i tool attivati, i loro risultati confrontati, la sintesi passata al modello come ground-truth mediante un prompt che verosimilmente chiederà a Sonnet di confezionare la risposta all’utente basandosi puntualmente su quei dati. A quel punto, la stocastica può al più determinare questioni di rendering linguistico. La partita della verità, che tanto sta a cuore a chi parla di ‘epistemia’, si gioca nel campo di chi fa i servizi meteo – gli stessi che tu consulti tranquillamente dopo aver preso il caffè la mattina.
E con questo ti auguro cordialmente buona giornata.
Guido
Il giorno 7 mag 2026, alle ore 23:51, Enrico Nardelli via nexa < nexa@server-nexa.polito.it> ha scritto:
Perdonami Guido osservo preliminarmente che le piattaforma generative testuali SONO basate sugli LLM, quindi quello che producono viene dagli LLM. Quando si parla di Intelligenza Artificiale generativa in ambito testuale, che è quello più rilevante quando si parla di intelligenza e comprensione, si parla di LLM. Non intorbidiamo le acque. Poi, sei tu che hai l'onere di fornire la prova «che le piattaforme generative fanno ben altro che predire stocasticamente il “prossimo token”». Giacomo Tesio in un altro messaggio oggi ha chiesto Il 07/05/2026 18:28, Giacomo Tesio via nexa ha scritto:
Ciao Giuseppe,
On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote:
Ci sono numerosi casi di risultati che non sono ottenibili “riorganizzando informazioni già presenti nei dati”.
Puoi condividere un paio di esempi riproducibili?
Giusto per non limitarsi ad aneddoti commerciali.
Stiamo ancora aspettando la risposta. Che gli LLM funzionino esattamente come predittori del prossimo token, con una serie di ammenicoli di contorno che non cambiano la loro natura di fondo, è spiegato - tra l'altro - nello studio citato in questo articolo https://www.computerworld.com/article/4059383/openai-admits-ai-hallucination... «In a landmark study, OpenAI researchers reveal that large language models will always produce plausible but false outputs, even with perfect data, due to fundamental statistical and computational limits.» Ribadisco quanto ho scritto nella mia prima risposta a Beppe:
il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in questo momento.
Stefano Quintarelli, in una mail di poco fa, ha fatto un'ulteriore osservazione che chiunque si occupi di dimostrare in modo galileiano la natura di un qualche fenomeno dovrebbe ben tener presente (la riformulo con parole mie): siamo sicuri che non esistono altre cause che spieghino lo stesso risultato?
Quindi, d'ora in avanti, smetterò di replicare ad argomenti che non siano fondati su evidenze sperimentali, vaste, robuste e riproducibili.
Buona notte, Enrico
Il 07/05/2026 22:49, Guido Vetere ha scritto:
Tuttavia, quando vi si fa osservare – dati alla mano – che le piattaforme generative (da non confondere coi language model) fanno ben altro che predire stocasticamente il “prossimo token”, non arrivano repliche. La “verità” sulla quale chiamate a raccolta l’intera comunità scientifica è in effetti una opinione, e anche molto discutibile a quanto pare (ironico, per chi parla di “epistemia”). Se proprio si vuol fare la conta, non sarebbe più onesto fare un sondaggio o un questionario, piuttosto che una petizione? Perché invece di un appello all’autorità accademica (!) su qualcosa di controverso non si fa una onesta discussione di merito? Questo sarebbe anche un posto giusto. La petizione che avete proposto rischia anche di essere regressiva, specularmente all’intervista di Veltroni. Capire bene come stanno le cose è fondamentale per indirizzare la ricerca nella direzione del progresso (vs. del profitto), e se qualcuno che ha fatto l’NLP in Italia (parlo di Beppe, naturalmente) dice che state sbagliando qualcosa, forse sarebbe il caso di parlarne con calma.
G.
Il giorno 7 mag 2026, alle ore 18:40, Enrico Nardelli via nexa < nexa@server-nexa.polito.it> ha scritto:
Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in questo momento.
-- -- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html <SXK2RJtn2vzsq6qC.png> ======================================================
Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
Ciao Andrea, 8 Mag 2026 12:57:21 Andrea Bolioli via nexa <nexa@server-nexa.polito.it>:
In generale, nei sistemi GenAI ci sono componenti preponderanti di neural networks ma anche componenti software deterministice.
L'importante è ricordare che la relazione fra output e input è statistica, non semantica. In altri termini, l'output di un LLM cui è stato richiesto un riassunto non corrisponderà ad una sintesi del testo da riassumere, ma ad una sequenza di parole correlata statisticamente a quelle del documento come lo erano nei testi compressi nel LLM. Un tale output può essere utile[1], come dice Stefano, solo quando è consumato da un essere umano che ha già letto il testo da riassumere: usato come bozza di partenza da ripulire e integrare prima di condividerla con altri esseri umani. Ma usare tale output senza leggere il testo da riassumere significa non avere idea di cosa ci sia scritto. Giacomo [1] "utile" qui in senso lato: l'utilità al netto dei costi (economici, ecologici, etc) rimane molto negativa.
eh, sono in parte d'accordo con te Giacomo, ma se entriamo nel tema "semantica" non ne usciamo più... :-) Per molti, la semantica del linguaggio è semantica distribuzionale. Tra i più autorevoli sostenitori ci sono 2 amici italiani, Marco Baroni e Alessandro Lenci, che nel 2020 hanno vinto il Test-of-Time Award della Association for Computational Linguistics per il loro paper del 2010 “Distributional Memory: A General Framework for Corpus-Based Semantics” pubblicato nella rivista internazionale Computational Linguistics (2010). Devo anche ricordare che il prof Attardi è stato tra i primi a lavorare sulle reti neurali. C'erano delle buone premesse in Italia, poi evidentemente qualcosa è andato storto . AB On Fri, May 8, 2026 at 2:31 PM Giacomo Tesio via nexa < nexa@server-nexa.polito.it> wrote:
Ciao Andrea,
8 Mag 2026 12:57:21 Andrea Bolioli via nexa <nexa@server-nexa.polito.it>:
In generale, nei sistemi GenAI ci sono componenti preponderanti di neural networks ma anche componenti software deterministice.
L'importante è ricordare che la relazione fra output e input è statistica, non semantica.
In altri termini, l'output di un LLM cui è stato richiesto un riassunto non corrisponderà ad una sintesi del testo da riassumere, ma ad una sequenza di parole correlata statisticamente a quelle del documento come lo erano nei testi compressi nel LLM.
Un tale output può essere utile[1], come dice Stefano, solo quando è consumato da un essere umano che ha già letto il testo da riassumere: usato come bozza di partenza da ripulire e integrare prima di condividerla con altri esseri umani.
Ma usare tale output senza leggere il testo da riassumere significa non avere idea di cosa ci sia scritto.
Giacomo [1] "utile" qui in senso lato: l'utilità al netto dei costi (economici, ecologici, etc) rimane molto negativa.
Caro Andrea, On Fri, 8 May 2026 15:39:22 +0200 Andrea Bolioli wrote:
eh, sono in parte d'accordo con te Giacomo, ma se entriamo nel tema "semantica" non ne usciamo più... :-)
per quanto stretta e scomoda, è una strada necessaria. La mail che stai leggendo è una rappresentazione simbolica di un'informazione nella mia mente: un'esperienza soggettiva di pensiero comunicabile che cerco di esprimere e trasmetterti perché tu ne possa vedere i simboli ed interpretarli, riproducendo tale esperienza nella tua mente. [1] Le parole di questa mail sono legate da relazioni semantiche: ogni parola viene scelta per contribuire alla trasmissione delle informazioni nella mia mente che intendo trasmettere. Non rileva molto, in realtà, che tali informazioni siano o meno derivate da esperienze sensibili (non concordo particolarmente con Enrico sulla rilevanza dell'esperienza corporea nel contesto delle "intelligenze artificiali", anche perché non è difficile collegare a questi software sensori e attuatori). Molto più rilevante è la relazione fra l'informazione nella mia mente (l'esperienza di pensiero comunicabile che intendo comunicare) e le parole che scelgo, in modo auspicabilmente adeguato, per trasmetterla. L'output di un LLM invece non ha alcun significato. I token estrati dal modello a partire dal prompt non sono legati da relazioni semantiche, ma statistiche. [2] Nessuna mente sta cercando di esprimere l'esperienza soggettiva di un pensiero comunicabile. I processi di attivazione degli strati finali della vector mapping machine (impropriamente detta "rete neurale arficiale") sono "difficili da interpretare" (per usare le parole di Giuseppe Attardi) semplicemente perché non hanno alcun significato intrinseco [3] e dunque non c'è nulla da interpretare. Il problema fondamentale è che chi non comprende il funzionamento di questi software attribuisce un significato al loro output, attribuendo alle parole relazioni semantiche invece che statistiche. Se usi un LLM come archivio compresso con perdita, può essere utile. Ad esempio, puoi estrarre da Claude o da Copilot il codice dei tuoi concorrenti che lo usano (fornendo loro in cambio accesso al tuo). O puoi ottenere lorem ipsum a tema per il prototipo del sito web di un cliente per praticamente qualsiasi ambito commerciale. Ma se lo confondi con un interlocutore, con un "AI peer programmer" (vedi marketing di GitHub CopyALot o Claude), sei vittima di un inganno. Giacomo [1] Infatti, contrariamente ad un protocollo software che permette il trasferimento (più propriamente, la copia) di un dato fra dispositivi diversi, il linguaggio non determina una trasferimento di informazione (che essendo esperienza soggettiva, non lascia mai la mente di chi la esperisce) ma solo una sincronizzazione, parziale e inesatta, fra menti umane. https://encrypted.tesio.it/2019/06/03/what-is-informatics.html#a-complex-rel... [2] nota polemica: _statistiche_, non _probabilistiche_ perché i numeri prodotti a valle delle varie trasformazioni non lineari e delle normalizzazioni calcolate durante l'esecuzione del LLM sul "motore inferenziale" non sono più interpretabili matematicamente come probabilità. [3] così come non ne hanno i livelli iniziali, sebbene sia possibile ricondurre determinati pattern di attivazione a pattern particolarmente frequenti nel testo, come sono, ovviamente, le strutture grammaticali di una lingua.
Ciao Giacomo, ti rispondo perché in questo messaggio scarti (secondo me entrando in contraddizione con te stesso) un argomento che, a mio parere, è uno dei potenziali pilastri della critica all'allucinazione collettiva che porta a identificare umani e macchine. Preciso: non a creare metafore o parallelismi, bensì a identificare come in "I am a stochastic parrot, too!" (S. Altman). I due pilastri, secondo me, sono: 1. Pilastro epistemologico: identificare due fenomeni che si presentano in due sistemi di complessità differenti che non hanno nulla in comune è, semplicemente, "cargo cult science" (Feynman). A ciascuno la sua fede su cosa sia superiore o meno (c'è libertà di culto, oltre che di pensiero, finché vige ancora la Costituzione), ma quello che è innegabile è che macchine e umani sono profondamente differenti. Gli esseri umani sono basati sul carbonio e sono viventi: nascono, crescono, si riproducono, invecchiano, muoiono e producono un flusso di coscienza praticamente ininterrotto anche nel sonno. Le macchine sono basate su metalli e silicio: non nascono, non crescono, non invecchiano (si consumano, ma possono essere ripristinate), non muoiono. Al massimo vengono dismesse. Ovviamente producono output solo se appositamente sollecitate (il famoso prompt) e questo è molto differente da un flusso di coscienza. A uno sguardo un pelino più approfondito di quello di McCulloch-Pitts, direi che quello che salta all'occhio son più differenze che similitudini. Pertanto, identificare le risposte di un umano con l'output di un LLM è semplicemente un errore grossolano o, se preferiamo, lavorare "in approssimazione di studente sferico" (comefacevo da studente a fisica tanti anni fa)e per questo stesso motivo l'accusa di "anthropocentric bias", che Silicon Valley scaglia contro chi insiste nel sottolineare la differenza è ridicola. Una dimostrazione scientifica dell'identità dei due fenomeni richiederebbe tanti di quei passi che mi viene il mal di capa anche solo a immaginarla. Ovviamente tra questi ci sarebbe definire "risposta", "coscienza", "pensare", "intelligenza": oltre il 50% dei termini bollati da Marvin Minsky stesso come "parole con la valigia" [1], che lui pensava allontanassero dalla soluzione del problema. Questo, intendiamoci bene, è un problema di chi sostiene l'identità, non di chi la rifiuta. Chiunque mastichi il metodo scientifico sa che l'onere della prova cade in capo al proponente di una nuova teoria o intuizione, che pertanto resta falsa fino a che non vi sono sufficienti evidenze del contrario (es. misurazioni di Hubble l'universo in espansione, lavoro di Sir Eddington per la relatività). Ovviamente questo non impedisce di riconoscere dei parallelismi o delle metafore e sfruttarle per comprendere alcuni sotto-meccanismi e non certo l'intero fenomeno, come volevano fare i cibernetici. Ma lo stesso Von Neumann rigetta l'idea dell'identificazione in una lettera a Wiener e McCulloch a cavallo tra i tardi '40 e i primi '50 (ora la memoria non mi aiuta), sostenendo che il cervello è troppo complesso come modello a cui ispirarsi per i nascendi computer, meglio pensare a un modello più semplice. 2. Pilastro ontologico: la natura di viventi in generale e degli esseri umani in particolare rende l'esperienza della vita situata. La conoscenza umana è anch'essa è situata, in quanto parte dell'esperienza dell'essere vivi. Lo stesso vale per il segno che quella conoscenza vorrebbe trasmettere - come hai ben descritto. Insomma, è necessario avere un corpo per poter fare esperienza delle cose che rendono umani. I sensori di un agente cibernetico automatico sono giocattoli rispetto agli organi di senso umano (di nuovo, Von Neumann dixit o, se preferisci, Frederick Von Frankensteen in "Young Frankenstein" di Mel Brooks :-D: il concetto non cambia). Il cervello dei viventi, poi, è il risultato di milioni di anni di evoluzione e tentativi successivi, lungo innumerevoli generazioni. Le "reti neurali artificiali" non hanno nemmeno cent'anni. Pensare che noi avremmo fatto in cent'anni meglio di quanto fatto dalla natura in milioni, quello si è suprematismo antropocentrico. "Cala trinchetto" diceva mio nonno. Ovviamente non è un ragionamento quantitativo, ma qualitativo, ma tu dovresti riconoscerti facilmente nell'incedere tipico della cibernetica. Per tutto il resto concordiamo, ma questo lo sapevi già. :-) Stefano [1] https://www.edge.org/conversation/marvin_minsky-consciousness-is-a-big-suitc... Il 10/05/26 22:18, Giacomo Tesio via nexa ha scritto:
Caro Andrea,
On Fri, 8 May 2026 15:39:22 +0200 Andrea Bolioli wrote:
eh, sono in parte d'accordo con te Giacomo, ma se entriamo nel tema "semantica" non ne usciamo più... :-)
per quanto stretta e scomoda, è una strada necessaria.
La mail che stai leggendo è una rappresentazione simbolica di un'informazione nella mia mente: un'esperienza soggettiva di pensiero comunicabile che cerco di esprimere e trasmetterti perché tu ne possa vedere i simboli ed interpretarli, riproducendo tale esperienza nella tua mente. [1]
Le parole di questa mail sono legate da relazioni semantiche: ogni parola viene scelta per contribuire alla trasmissione delle informazioni nella mia mente che intendo trasmettere.
Non rileva molto, in realtà, che tali informazioni siano o meno derivate da esperienze sensibili (non concordo particolarmente con Enrico sulla rilevanza dell'esperienza corporea nel contesto delle "intelligenze artificiali", anche perché non è difficile collegare a questi software sensori e attuatori).
Molto più rilevante è la relazione fra l'informazione nella mia mente (l'esperienza di pensiero comunicabile che intendo comunicare) e le parole che scelgo, in modo auspicabilmente adeguato, per trasmetterla.
L'output di un LLM invece non ha alcun significato.
I token estrati dal modello a partire dal prompt non sono legati da relazioni semantiche, ma statistiche. [2]
Nessuna mente sta cercando di esprimere l'esperienza soggettiva di un pensiero comunicabile. I processi di attivazione degli strati finali della vector mapping machine (impropriamente detta "rete neurale arficiale") sono "difficili da interpretare" (per usare le parole di Giuseppe Attardi) semplicemente perché non hanno alcun significato intrinseco [3] e dunque non c'è nulla da interpretare.
Il problema fondamentale è che chi non comprende il funzionamento di questi software attribuisce un significato al loro output, attribuendo alle parole relazioni semantiche invece che statistiche.
Se usi un LLM come archivio compresso con perdita, può essere utile. Ad esempio, puoi estrarre da Claude o da Copilot il codice dei tuoi concorrenti che lo usano (fornendo loro in cambio accesso al tuo). O puoi ottenere lorem ipsum a tema per il prototipo del sito web di un cliente per praticamente qualsiasi ambito commerciale.
Ma se lo confondi con un interlocutore, con un "AI peer programmer" (vedi marketing di GitHub CopyALot o Claude), sei vittima di un inganno.
Giacomo
[1] Infatti, contrariamente ad un protocollo software che permette il trasferimento (più propriamente, la copia) di un dato fra dispositivi diversi, il linguaggio non determina una trasferimento di informazione (che essendo esperienza soggettiva, non lascia mai la mente di chi la esperisce) ma solo una sincronizzazione, parziale e inesatta, fra menti umane. https://encrypted.tesio.it/2019/06/03/what-is-informatics.html#a-complex-rel... [2] nota polemica: _statistiche_, non _probabilistiche_ perché i numeri prodotti a valle delle varie trasformazioni non lineari e delle normalizzazioni calcolate durante l'esecuzione del LLM sul "motore inferenziale" non sono più interpretabili matematicamente come probabilità.
[3] così come non ne hanno i livelli iniziali, sebbene sia possibile ricondurre determinati pattern di attivazione a pattern particolarmente frequenti nel testo, come sono, ovviamente, le strutture grammaticali di una lingua.
Ciao Stefano Il 11 Maggio 2026 04:22:29 UTC, Stefano Borroni Barale ha scritto:
ti rispondo perché in questo messaggio scarti (secondo me entrando in contraddizione con te stesso) un argomento che, a mio parere, è uno dei potenziali pilastri della critica all'allucinazione collettiva che porta a identificare umani e macchine.
Ammetto di aver riletto diverse volte il mio messaggio cercando di capire quale passaggio ti sembrasse in contraddizione con quello che hai definito "pilastro epistemologico". Ahimé ho fallito: sono assolutamente d'accordo con quanto hai scritto, e non mi pare di aver in alcun modo confrontato (o ancor meno identificato) "due fenomeni che si presentano in due sistemi di complessità differenti che non hanno nulla in comune". Ho cercato, al contrario, di spiegare la differenza ontologica fra i due fenomeni che altri descrivono con gli stessi termini con l'intenzione di confonderli (Anthropic, OpenAI, Google...) o l'ambizione di conformarli (ad esempio ricercatori in assoluta buona fede come Giuseppe Attardi). Mentre io, se ci fai caso, evito di descrivere come "fenomeno linguistico", "risposte" "codice" etc... l'output di software programmati statisticamente. [1] Forse può essere utile leggere la mail che hai citato accanto alle altre che ho inviato ieri sera (in particolare la risposta a Giuseppe ed Enrico in cui propongo una definizione operativa di "senso delle parole"). Ti chiederei quindi di indicarmi quale passaggio abbia prodotto nella tua mente un'informazione in contrasto con il "pilastro epistemologico" che hai descritto in modo che io possa chiarirlo ulteriormente (se ancora necessario). Credo invece di aver individuato il passaggio che trovi in contraddizione con quello che chiami "pilastro ontologico", ovvero
Non rileva molto, in realtà, che tali informazioni siano o meno derivate da esperienze sensibili (non concordo particolarmente con Enrico sulla rilevanza dell'esperienza corporea nel contesto delle "intelligenze artificiali", anche perché non è difficile collegare a questi software sensori e attuatori).
Pur concordando con ciò che scrivi descrivendo il "pilastro ontologico", non lo ritengo affatto un pilastro della critica alla favola della "intelligenza artificiale". Lo considero al più un puntello malfermo che, in assenza di fondamenta più solide (quali ad esempio la definizione di informazione come esperienza soggettiva di pensiero comunicabile, la sua distinzione dal dato quale rappresentazione interpretabile impressa su ub supporto trasferibile, etc), viene proposta da intellettuali ben intenzionati nella speranza di sostenere l'umanità dall'attacco che sta subendo. Purtroppo rimane un puntello malfermo. Perché? Vi sono varie ragioni, alcune delle quali hai riportato tu stesso nel passaggio sul "pilastro epistemologico". Elencarle sistematicamente richiederebbe, ahimé più tempo di quanto disponga in questo momento, ma posso citarne alcune (senza alcun ordine significativo). Ad esempio è ridicolo sostenere che, ad esempio, le "intelligenze artificiali" di Google non siano connesse ad un numero di sensori mostruosamente superiore a qualsiasi essere vivente sul pianeta. Elencarli tutti ci deprimerebbe (Google Analytics su miliardi di siti web, GMail per miliardi di persone, GMaps su miliardi di smartphone etc etc etc). Se la questione fosse semplicemente l'accesso al mondo fisico, Google avrebbe prodotto un'AGI già anni fa (e non che non ci abbia provato con risorse economiche e tecnologiche senza precedenti nella storia dell'umanità). Ma non basta. Se anche in un diabolico atto di superbia, Musk, Altman o Amodei decidessero di "donare il proprio corpo alla scienza" [2] e facessero sostituire il proprio encefalo con un innovativo sistema in grado di recepire tutti i segnali entranti dal sistema nervoso, codificarli in alta definizione, trasferirli ad un datacenter centinaia di volte più potente (e più inquinante) di quelli disponibili attualmente, riceverne un output e ricodificarlo in segnali trasmissibili dal midollo spinale, ciò che otterrebbero non sarebbe un'intelligenza pensante. Ovvero, se anche connettessero un corpo umano a questi software programmabili statisticamente non riuscirebbero che a simulare ciò che caratterizza la nostra specie. Perché? Per la semplice ragione che un sistema complesso non è computabile, mentre l'output di quell'ipotetico mega data center lo è (tanto da essere computato). Per argomentare che quel software esibisce intelligenza, bisognerebbe sostenere che la realtà stessa non è un sistema complesso ed è dunque essa stessa computabile. Perché è la realtà ad aver esibito i comportamenti emergenti che noi umani classifichiamo come vita ed intelligenza. Ipotesi che al momento la meccanica quantistica esclude. Ciò che può fare un software è solo simulare la realtà. Per questo "intelligenza artificiale" è e rimarrà sempre un ossimoro. Giacomo [1] potrei al contrario definire in questi termini l'output di un software programmato esplicitamente, da un banale "Hello World!" ad una dichiarazione d'amore espressa come video game. La differenza ontologica non è nel contenuto del messaggio, ma nella presenza di un significato. [2] o, più realisticamente, di sfuttare qualche povero disperato promettendogli chissà quale ricompensa eterna Il 11 Maggio 2026 04:22:29 UTC, Stefano Borroni Barale via nexa <nexa@server-nexa.polito.it> ha scritto:
Ciao Giacomo,
ti rispondo perché in questo messaggio scarti (secondo me entrando in contraddizione con te stesso) un argomento che, a mio parere, è uno dei potenziali pilastri della critica all'allucinazione collettiva che porta a identificare umani e macchine. Preciso: non a creare metafore o parallelismi, bensì a identificare come in "I am a stochastic parrot, too!" (S. Altman).
I due pilastri, secondo me, sono:
1. Pilastro epistemologico: identificare due fenomeni che si presentano in due sistemi di complessità differenti che non hanno nulla in comune è, semplicemente, "cargo cult science" (Feynman). A ciascuno la sua fede su cosa sia superiore o meno (c'è libertà di culto, oltre che di pensiero, finché vige ancora la Costituzione), ma quello che è innegabile è che macchine e umani sono profondamente differenti.
Gli esseri umani sono basati sul carbonio e sono viventi: nascono, crescono, si riproducono, invecchiano, muoiono e producono un flusso di coscienza praticamente ininterrotto anche nel sonno. Le macchine sono basate su metalli e silicio: non nascono, non crescono, non invecchiano (si consumano, ma possono essere ripristinate), non muoiono. Al massimo vengono dismesse. Ovviamente producono output solo se appositamente sollecitate (il famoso prompt) e questo è molto differente da un flusso di coscienza. A uno sguardo un pelino più approfondito di quello di McCulloch-Pitts, direi che quello che salta all'occhio son più differenze che similitudini.
Pertanto, identificare le risposte di un umano con l'output di un LLM è semplicemente un errore grossolano o, se preferiamo, lavorare "in approssimazione di studente sferico" (comefacevo da studente a fisica tanti anni fa)e per questo stesso motivo l'accusa di "anthropocentric bias", che Silicon Valley scaglia contro chi insiste nel sottolineare la differenza è ridicola.
Una dimostrazione scientifica dell'identità dei due fenomeni richiederebbe tanti di quei passi che mi viene il mal di capa anche solo a immaginarla. Ovviamente tra questi ci sarebbe definire "risposta", "coscienza", "pensare", "intelligenza": oltre il 50% dei termini bollati da Marvin Minsky stesso come "parole con la valigia" [1], che lui pensava allontanassero dalla soluzione del problema. Questo, intendiamoci bene, è un problema di chi sostiene l'identità, non di chi la rifiuta. Chiunque mastichi il metodo scientifico sa che l'onere della prova cade in capo al proponente di una nuova teoria o intuizione, che pertanto resta falsa fino a che non vi sono sufficienti evidenze del contrario (es. misurazioni di Hubble l'universo in espansione, lavoro di Sir Eddington per la relatività).
Ovviamente questo non impedisce di riconoscere dei parallelismi o delle metafore e sfruttarle per comprendere alcuni sotto-meccanismi e non certo l'intero fenomeno, come volevano fare i cibernetici. Ma lo stesso Von Neumann rigetta l'idea dell'identificazione in una lettera a Wiener e McCulloch a cavallo tra i tardi '40 e i primi '50 (ora la memoria non mi aiuta), sostenendo che il cervello è troppo complesso come modello a cui ispirarsi per i nascendi computer, meglio pensare a un modello più semplice.
2. Pilastro ontologico: la natura di viventi in generale e degli esseri umani in particolare rende l'esperienza della vita situata. La conoscenza umana è anch'essa è situata, in quanto parte dell'esperienza dell'essere vivi. Lo stesso vale per il segno che quella conoscenza vorrebbe trasmettere - come hai ben descritto. Insomma, è necessario avere un corpo per poter fare esperienza delle cose che rendono umani.
I sensori di un agente cibernetico automatico sono giocattoli rispetto agli organi di senso umano (di nuovo, Von Neumann dixit o, se preferisci, Frederick Von Frankensteen in "Young Frankenstein" di Mel Brooks :-D: il concetto non cambia). Il cervello dei viventi, poi, è il risultato di milioni di anni di evoluzione e tentativi successivi, lungo innumerevoli generazioni. Le "reti neurali artificiali" non hanno nemmeno cent'anni. Pensare che noi avremmo fatto in cent'anni meglio di quanto fatto dalla natura in milioni, quello si è suprematismo antropocentrico. "Cala trinchetto" diceva mio nonno. Ovviamente non è un ragionamento quantitativo, ma qualitativo, ma tu dovresti riconoscerti facilmente nell'incedere tipico della cibernetica.
Per tutto il resto concordiamo, ma questo lo sapevi già. :-)
Stefano
[1] https://www.edge.org/conversation/marvin_minsky-consciousness-is-a-big-suitc...
Il 10/05/26 22:18, Giacomo Tesio via nexa ha scritto:
Caro Andrea,
On Fri, 8 May 2026 15:39:22 +0200 Andrea Bolioli wrote:
eh, sono in parte d'accordo con te Giacomo, ma se entriamo nel tema "semantica" non ne usciamo più... :-)
per quanto stretta e scomoda, è una strada necessaria.
La mail che stai leggendo è una rappresentazione simbolica di un'informazione nella mia mente: un'esperienza soggettiva di pensiero comunicabile che cerco di esprimere e trasmetterti perché tu ne possa vedere i simboli ed interpretarli, riproducendo tale esperienza nella tua mente. [1]
Le parole di questa mail sono legate da relazioni semantiche: ogni parola viene scelta per contribuire alla trasmissione delle informazioni nella mia mente che intendo trasmettere.
Non rileva molto, in realtà, che tali informazioni siano o meno derivate da esperienze sensibili (non concordo particolarmente con Enrico sulla rilevanza dell'esperienza corporea nel contesto delle "intelligenze artificiali", anche perché non è difficile collegare a questi software sensori e attuatori).
Molto più rilevante è la relazione fra l'informazione nella mia mente (l'esperienza di pensiero comunicabile che intendo comunicare) e le parole che scelgo, in modo auspicabilmente adeguato, per trasmetterla.
L'output di un LLM invece non ha alcun significato.
I token estrati dal modello a partire dal prompt non sono legati da relazioni semantiche, ma statistiche. [2]
Nessuna mente sta cercando di esprimere l'esperienza soggettiva di un pensiero comunicabile. I processi di attivazione degli strati finali della vector mapping machine (impropriamente detta "rete neurale arficiale") sono "difficili da interpretare" (per usare le parole di Giuseppe Attardi) semplicemente perché non hanno alcun significato intrinseco [3] e dunque non c'è nulla da interpretare.
Il problema fondamentale è che chi non comprende il funzionamento di questi software attribuisce un significato al loro output, attribuendo alle parole relazioni semantiche invece che statistiche.
Se usi un LLM come archivio compresso con perdita, può essere utile. Ad esempio, puoi estrarre da Claude o da Copilot il codice dei tuoi concorrenti che lo usano (fornendo loro in cambio accesso al tuo). O puoi ottenere lorem ipsum a tema per il prototipo del sito web di un cliente per praticamente qualsiasi ambito commerciale.
Ma se lo confondi con un interlocutore, con un "AI peer programmer" (vedi marketing di GitHub CopyALot o Claude), sei vittima di un inganno.
Giacomo
[1] Infatti, contrariamente ad un protocollo software che permette il trasferimento (più propriamente, la copia) di un dato fra dispositivi diversi, il linguaggio non determina una trasferimento di informazione (che essendo esperienza soggettiva, non lascia mai la mente di chi la esperisce) ma solo una sincronizzazione, parziale e inesatta, fra menti umane. https://encrypted.tesio.it/2019/06/03/what-is-informatics.html#a-complex-rel... [2] nota polemica: _statistiche_, non _probabilistiche_ perché i numeri prodotti a valle delle varie trasformazioni non lineari e delle normalizzazioni calcolate durante l'esecuzione del LLM sul "motore inferenziale" non sono più interpretabili matematicamente come probabilità.
[3] così come non ne hanno i livelli iniziali, sebbene sia possibile ricondurre determinati pattern di attivazione a pattern particolarmente frequenti nel testo, come sono, ovviamente, le strutture grammaticali di una lingua.
Scusa, Giacomo, una piccola nota. A me sembra concettualmente sbagliato dire: "Il problema fondamentale è che chi non comprende il funzionamento di questi software attribuisce un significato al loro output, attribuendo alle parole relazioni semantiche invece che statistiche." Innanzitutto, io sono un umano, e se leggo qualcosa, leggo lessico, sintassi, semantica (e semantica sulle righe, tra le righe e dietro le righe, nel caso di Giuliano Amato, che riusciva a scrivere a tre livelli). Se poi leggo una fotocopia della Divina Commedia, o uno scritto di scimmia con la macchina da scrivere che l'ha casualmente riprodotta identica -- NB.: la scimmia è "provocatoria", ma la fotocopia è "dirimente" -- sinceramente non vedo testuale né semantica differenza (altro caso è se sono un esperto biblista, e devo distinguere fra un Gutemberg e una Xerox, ma qui stiamo parlando di semantica). Se l'obiettivo della MAL INDICATA "IA", invece di "CdT" (confezionatori di testi), è di confezionare testi su base statistica, o li buttiamo tutti a mare, oppure usiamo i loro risultati per la semantica che più o meno forniscono. Anche quando usi un metro da sarto, o un calibro, vedi dimensioni e non la realtà, e ti va bene anche se il metro e il calibro ...non pensano. Detto in breve, è DEL TUTTO NORMALE leggere semantica da uno STRUMENTO che cerca di fingerla al meglio. Concordo sul fatto che le informazioni sono nella testa di scrive, ...ma io quando leggo uno scritto ne traggo delle informazioni anche se chi ce le ha messe non le aveva (come molto giornalismo, ad esempio; peggio ancora i social). Perché ti preoccupi del fatto che gli LLM sono "statistici"? Io mi incazzo che li chiamino "IA", ...poi se mi fa comodo li uso, e li uso per la (possibile / ipotetica) semantica. Altrimenti, ...per cosa? Il 2026-05-10 22:18 Giacomo Tesio via nexa ha scritto:
Caro Andrea,
On Fri, 8 May 2026 15:39:22 +0200 Andrea Bolioli wrote:
eh, sono in parte d'accordo con te Giacomo, ma se entriamo nel tema "semantica" non ne usciamo più... :-)
per quanto stretta e scomoda, è una strada necessaria.
La mail che stai leggendo è una rappresentazione simbolica di un'informazione nella mia mente: un'esperienza soggettiva di pensiero comunicabile che cerco di esprimere e trasmetterti perché tu ne possa vedere i simboli ed interpretarli, riproducendo tale esperienza nella tua mente. [1]
Le parole di questa mail sono legate da relazioni semantiche: ogni parola viene scelta per contribuire alla trasmissione delle informazioni nella mia mente che intendo trasmettere.
Non rileva molto, in realtà, che tali informazioni siano o meno derivate da esperienze sensibili (non concordo particolarmente con Enrico sulla rilevanza dell'esperienza corporea nel contesto delle "intelligenze artificiali", anche perché non è difficile collegare a questi software sensori e attuatori).
Molto più rilevante è la relazione fra l'informazione nella mia mente (l'esperienza di pensiero comunicabile che intendo comunicare) e le parole che scelgo, in modo auspicabilmente adeguato, per trasmetterla.
L'output di un LLM invece non ha alcun significato.
I token estrati dal modello a partire dal prompt non sono legati da relazioni semantiche, ma statistiche. [2]
Nessuna mente sta cercando di esprimere l'esperienza soggettiva di un pensiero comunicabile. I processi di attivazione degli strati finali della vector mapping machine (impropriamente detta "rete neurale arficiale") sono "difficili da interpretare" (per usare le parole di Giuseppe Attardi) semplicemente perché non hanno alcun significato intrinseco [3] e dunque non c'è nulla da interpretare.
Il problema fondamentale è che chi non comprende il funzionamento di questi software attribuisce un significato al loro output, attribuendo alle parole relazioni semantiche invece che statistiche.
Se usi un LLM come archivio compresso con perdita, può essere utile. Ad esempio, puoi estrarre da Claude o da Copilot il codice dei tuoi concorrenti che lo usano (fornendo loro in cambio accesso al tuo). O puoi ottenere lorem ipsum a tema per il prototipo del sito web di un cliente per praticamente qualsiasi ambito commerciale.
Ma se lo confondi con un interlocutore, con un "AI peer programmer" (vedi marketing di GitHub CopyALot o Claude), sei vittima di un inganno.
Giacomo
[1] Infatti, contrariamente ad un protocollo software che permette il trasferimento (più propriamente, la copia) di un dato fra dispositivi diversi, il linguaggio non determina una trasferimento di informazione (che essendo esperienza soggettiva, non lascia mai la mente di chi la esperisce) ma solo una sincronizzazione, parziale e inesatta, fra menti umane.
https://encrypted.tesio.it/2019/06/03/what-is-informatics.html#a-complex-rel...
[2] nota polemica: _statistiche_, non _probabilistiche_ perché i numeri prodotti a valle delle varie trasformazioni non lineari e delle normalizzazioni calcolate durante l'esecuzione del LLM sul "motore inferenziale" non sono più interpretabili matematicamente come probabilità.
[3] così come non ne hanno i livelli iniziali, sebbene sia possibile ricondurre determinati pattern di attivazione a pattern particolarmente frequenti nel testo, come sono, ovviamente, le strutture grammaticali di una lingua.
Quello che va valutato è l'impatto etico-sociale di questa tecnologia e il livello di attribuzione alle parole è importante. Appunto lei è un umano. L'umano tente ad "antropomorfizzare" ogni relazione al di fuori di sé per un semplice motivo, comprendere. È più semplice comprendere partendo da una base conosciuta è la natura si articola sul "minimo sforzo". Lei dice che una schimmia è provocatoria, perché ha una idea di scimmia, dice che una fotocopia è dirimente perché ha un'idea di fotocopia ma soprattutto ha un'idea del testo scritto. Qui andrebbe valutato del testo scritto da chi, ma lasciamo stare e immaginaniamo che sia un esimio professore. Che sia normale trovare della semantica in un testo grammaticalmente sufficientemente corretto e plausibile non si discute, infatti è quello il problema. Se adeguatamente stimolato e altrettanto adeguatamente ignorante in materia con la convinzione che stia discutendo con un oracolo infallibile o quasi, non sarebbe tentato di credere sulla fiducia? Per quale motivo crede che ci si stia così impegnando nel livello "conversazionale" di queste macchine? Non basta incazzarzi per il nome di marketing e per quello che mi riguarda, nemmeno tacciarli di essere "statistici" soltanto (che è una riduzione come IA per fare a capirsi). Che ne facciamo si chiede? Ora come ora, considerando vari fattori il "buttarli a mare" sarebbe l'atto più appropriato, almeno finché non ne esista una reale comprensione e sia chiaro per chiunque come siano soltanto delle macchine. -- massimo Il giorno lun, 11/05/2026 alle 11.48 +0200, abregni via nexa ha scritto:
Scusa, Giacomo, una piccola nota.
A me sembra concettualmente sbagliato dire: "Il problema fondamentale è che chi non comprende il funzionamento di questi software attribuisce un significato al loro output, attribuendo alle parole relazioni semantiche invece che statistiche."
Innanzitutto, io sono un umano, e se leggo qualcosa, leggo lessico, sintassi, semantica (e semantica sulle righe, tra le righe e dietro le righe, nel caso di Giuliano Amato, che riusciva a scrivere a tre livelli). Se poi leggo una fotocopia della Divina Commedia, o uno scritto di scimmia con la macchina da scrivere che l'ha casualmente riprodotta identica -- NB.: la scimmia è "provocatoria", ma la fotocopia è "dirimente" -- sinceramente non vedo testuale né semantica differenza (altro caso è se sono un esperto biblista, e devo distinguere fra un Gutemberg e una Xerox, ma qui stiamo parlando di semantica). Se l'obiettivo della MAL INDICATA "IA", invece di "CdT" (confezionatori di testi), è di confezionare testi su base statistica, o li buttiamo tutti a mare, oppure usiamo i loro risultati per la semantica che più o meno forniscono. Anche quando usi un metro da sarto, o un calibro, vedi dimensioni e non la realtà, e ti va bene anche se il metro e il calibro ...non pensano.
Detto in breve, è DEL TUTTO NORMALE leggere semantica da uno STRUMENTO che cerca di fingerla al meglio. Concordo sul fatto che le informazioni sono nella testa di scrive, ...ma io quando leggo uno scritto ne traggo delle informazioni anche se chi ce le ha messe non le aveva (come molto giornalismo, ad esempio; peggio ancora i social). Perché ti preoccupi del fatto che gli LLM sono "statistici"? Io mi incazzo che li chiamino "IA", ...poi se mi fa comodo li uso, e li uso per la (possibile / ipotetica) semantica. Altrimenti, ...per cosa?
Il 2026-05-10 22:18 Giacomo Tesio via nexa ha scritto:
Caro Andrea,
On Fri, 8 May 2026 15:39:22 +0200 Andrea Bolioli wrote:
eh, sono in parte d'accordo con te Giacomo, ma se entriamo nel tema "semantica" non ne usciamo più... :-)
per quanto stretta e scomoda, è una strada necessaria.
La mail che stai leggendo è una rappresentazione simbolica di un'informazione nella mia mente: un'esperienza soggettiva di pensiero comunicabile che cerco di esprimere e trasmetterti perché tu ne possa vedere i simboli ed interpretarli, riproducendo tale esperienza nella tua mente. [1]
Le parole di questa mail sono legate da relazioni semantiche: ogni parola viene scelta per contribuire alla trasmissione delle informazioni nella mia mente che intendo trasmettere.
Non rileva molto, in realtà, che tali informazioni siano o meno derivate da esperienze sensibili (non concordo particolarmente con Enrico sulla rilevanza dell'esperienza corporea nel contesto delle "intelligenze artificiali", anche perché non è difficile collegare a questi software sensori e attuatori).
Molto più rilevante è la relazione fra l'informazione nella mia mente (l'esperienza di pensiero comunicabile che intendo comunicare) e le parole che scelgo, in modo auspicabilmente adeguato, per trasmetterla.
L'output di un LLM invece non ha alcun significato.
I token estrati dal modello a partire dal prompt non sono legati da relazioni semantiche, ma statistiche. [2]
Nessuna mente sta cercando di esprimere l'esperienza soggettiva di un pensiero comunicabile. I processi di attivazione degli strati finali della vector mapping machine (impropriamente detta "rete neurale arficiale") sono "difficili da interpretare" (per usare le parole di Giuseppe Attardi) semplicemente perché non hanno alcun significato intrinseco [3] e dunque non c'è nulla da interpretare.
Il problema fondamentale è che chi non comprende il funzionamento di questi software attribuisce un significato al loro output, attribuendo alle parole relazioni semantiche invece che statistiche.
Se usi un LLM come archivio compresso con perdita, può essere utile. Ad esempio, puoi estrarre da Claude o da Copilot il codice dei tuoi concorrenti che lo usano (fornendo loro in cambio accesso al tuo). O puoi ottenere lorem ipsum a tema per il prototipo del sito web di un cliente per praticamente qualsiasi ambito commerciale.
Ma se lo confondi con un interlocutore, con un "AI peer programmer" (vedi marketing di GitHub CopyALot o Claude), sei vittima di un inganno.
Giacomo
[1] Infatti, contrariamente ad un protocollo software che permette il trasferimento (più propriamente, la copia) di un dato fra dispositivi diversi, il linguaggio non determina una trasferimento di informazione (che essendo esperienza soggettiva, non lascia mai la mente di chi la esperisce) ma solo una sincronizzazione, parziale e inesatta, fra menti umane. https://encrypted.tesio.it/2019/06/03/what-is-informatics.html#a-complex-rel...
[2] nota polemica: _statistiche_, non _probabilistiche_ perché i numeri prodotti a valle delle varie trasformazioni non lineari e delle normalizzazioni calcolate durante l'esecuzione del LLM sul "motore inferenziale" non sono più interpretabili matematicamente come probabilità.
[3] così come non ne hanno i livelli iniziali, sebbene sia possibile ricondurre determinati pattern di attivazione a pattern particolarmente frequenti nel testo, come sono, ovviamente, le strutture grammaticali di una lingua.
Salve, Massimo. Non ho capito il punto, che non mi sembra correlato con il mio. Io "converso" normalmente con le macchine. Un foglio Excel è un'estensione di me, come pure un documento PowerPoint o un testo Word. Mi aiutano tutti -- aspetto comune: IN OUTPUT (ma anche a ragionare) -- a mettere ordine nei pensieri. Se non sono informato sui cani del deserto, o sulla band degli Oasis, e chiedo lumi a Google AI, invece che a un motore di ricerca "passivo" (chiamiamolo così), non vedo niente di strano leggerci della semantica, anche se è motore di ricerca "ripasticciato" (NON "con perdita", come dice Giacomo). L'AI (termine ebete, ribadisco), fa del suo meglio per sintetizzare, magari anche per essere gradevole e darmi ragione, il che è solo un grado sopra il completamento automatico delle parole, o il correttore ortografico quando non diventa invasivo. Se c'è qualcuno che ci vede oracoli, o mezzi di convincimento di massa, a me viene da ridere. C'è ben altro con cui la gente viene regolarmente fottuta -- non fatemi bestemmiare... -- e noi non diciamo nulla. Il 2026-05-11 13:08 Massimo Maria Ghisalberti ha scritto:
Quello che va valutato è l'impatto etico-sociale di questa tecnologia e il livello di attribuzione alle parole è importante. Appunto lei è un umano. L'umano tente ad "antropomorfizzare" ogni relazione al di fuori di sé per un semplice motivo, comprendere. È più semplice comprendere partendo da una base conosciuta è la natura si articola sul "minimo sforzo". Lei dice che una schimmia è provocatoria, perché ha una idea di scimmia, dice che una fotocopia è dirimente perché ha un'idea di fotocopia ma soprattutto ha un'idea del testo scritto. Qui andrebbe valutato del testo scritto da chi, ma lasciamo stare e immaginaniamo che sia un esimio professore. Che sia normale trovare della semantica in un testo grammaticalmente sufficientemente corretto e plausibile non si discute, infatti è quello il problema. Se adeguatamente stimolato e altrettanto adeguatamente ignorante in materia con la convinzione che stia discutendo con un oracolo infallibile o quasi, non sarebbe tentato di credere sulla fiducia? Per quale motivo crede che ci si stia così impegnando nel livello "conversazionale" di queste macchine? Non basta incazzarzi per il nome di marketing e per quello che mi riguarda, nemmeno tacciarli di essere "statistici" soltanto (che è una riduzione come IA per fare a capirsi).
Che ne facciamo si chiede? Ora come ora, considerando vari fattori il "buttarli a mare" sarebbe l'atto più appropriato, almeno finché non ne esista una reale comprensione e sia chiaro per chiunque come siano soltanto delle macchine.
-- massimo
Il giorno lun, 11/05/2026 alle 11.48 +0200, abregni via nexa ha scritto:
Scusa, Giacomo, una piccola nota.
A me sembra concettualmente sbagliato dire: "Il problema fondamentale è che chi non comprende il funzionamento di questi software attribuisce un significato al loro output, attribuendo alle parole relazioni semantiche invece che statistiche."
Innanzitutto, io sono un umano, e se leggo qualcosa, leggo lessico, sintassi, semantica (e semantica sulle righe, tra le righe e dietro le righe, nel caso di Giuliano Amato, che riusciva a scrivere a tre livelli). Se poi leggo una fotocopia della Divina Commedia, o uno scritto di scimmia con la macchina da scrivere che l'ha casualmente riprodotta identica -- NB.: la scimmia è "provocatoria", ma la fotocopia è "dirimente" -- sinceramente non vedo testuale né semantica differenza (altro caso è se sono un esperto biblista, e devo distinguere fra un Gutemberg e una Xerox, ma qui stiamo parlando di semantica). Se l'obiettivo della MAL INDICATA "IA", invece di "CdT" (confezionatori di testi), è di confezionare testi su base statistica, o li buttiamo tutti a mare, oppure usiamo i loro risultati per la semantica che più o meno forniscono. Anche quando usi un metro da sarto, o un calibro, vedi dimensioni e non la realtà, e ti va bene anche se il metro e il calibro ...non pensano.
Detto in breve, è DEL TUTTO NORMALE leggere semantica da uno STRUMENTO che cerca di fingerla al meglio. Concordo sul fatto che le informazioni sono nella testa di scrive, ...ma io quando leggo uno scritto ne traggo delle informazioni anche se chi ce le ha messe non le aveva (come molto giornalismo, ad esempio; peggio ancora i social). Perché ti preoccupi del fatto che gli LLM sono "statistici"? Io mi incazzo che li chiamino "IA", ...poi se mi fa comodo li uso, e li uso per la (possibile / ipotetica) semantica. Altrimenti, ...per cosa?
Il 2026-05-10 22:18 Giacomo Tesio via nexa ha scritto:
Caro Andrea,
On Fri, 8 May 2026 15:39:22 +0200 Andrea Bolioli wrote:
eh, sono in parte d'accordo con te Giacomo, ma se entriamo nel tema "semantica" non ne usciamo più... :-)
per quanto stretta e scomoda, è una strada necessaria.
La mail che stai leggendo è una rappresentazione simbolica di un'informazione nella mia mente: un'esperienza soggettiva di pensiero comunicabile che cerco di esprimere e trasmetterti perché tu ne possa vedere i simboli ed interpretarli, riproducendo tale esperienza nella tua mente. [1]
Le parole di questa mail sono legate da relazioni semantiche: ogni parola viene scelta per contribuire alla trasmissione delle informazioni nella mia mente che intendo trasmettere.
Non rileva molto, in realtà, che tali informazioni siano o meno derivate da esperienze sensibili (non concordo particolarmente con Enrico sulla rilevanza dell'esperienza corporea nel contesto delle "intelligenze artificiali", anche perché non è difficile collegare a questi software sensori e attuatori).
Molto più rilevante è la relazione fra l'informazione nella mia mente (l'esperienza di pensiero comunicabile che intendo comunicare) e le parole che scelgo, in modo auspicabilmente adeguato, per trasmetterla.
L'output di un LLM invece non ha alcun significato.
I token estrati dal modello a partire dal prompt non sono legati da relazioni semantiche, ma statistiche. [2]
Nessuna mente sta cercando di esprimere l'esperienza soggettiva di un pensiero comunicabile. I processi di attivazione degli strati finali della vector mapping machine (impropriamente detta "rete neurale arficiale") sono "difficili da interpretare" (per usare le parole di Giuseppe Attardi) semplicemente perché non hanno alcun significato intrinseco [3] e dunque non c'è nulla da interpretare.
Il problema fondamentale è che chi non comprende il funzionamento di questi software attribuisce un significato al loro output, attribuendo alle parole relazioni semantiche invece che statistiche.
Se usi un LLM come archivio compresso con perdita, può essere utile. Ad esempio, puoi estrarre da Claude o da Copilot il codice dei tuoi concorrenti che lo usano (fornendo loro in cambio accesso al tuo). O puoi ottenere lorem ipsum a tema per il prototipo del sito web di un cliente per praticamente qualsiasi ambito commerciale.
Ma se lo confondi con un interlocutore, con un "AI peer programmer" (vedi marketing di GitHub CopyALot o Claude), sei vittima di un inganno.
Giacomo
[1] Infatti, contrariamente ad un protocollo software che permette il trasferimento (più propriamente, la copia) di un dato fra dispositivi diversi, il linguaggio non determina una trasferimento di informazione (che essendo esperienza soggettiva, non lascia mai la mente di chi la esperisce) ma solo una sincronizzazione, parziale e inesatta, fra menti umane. https://encrypted.tesio.it/2019/06/03/what-is-informatics.html#a-complex-rel...
[2] nota polemica: _statistiche_, non _probabilistiche_ perché i numeri prodotti a valle delle varie trasformazioni non lineari e delle normalizzazioni calcolate durante l'esecuzione del LLM sul "motore inferenziale" non sono più interpretabili matematicamente come probabilità.
[3] così come non ne hanno i livelli iniziali, sebbene sia possibile ricondurre determinati pattern di attivazione a pattern particolarmente frequenti nel testo, come sono, ovviamente, le strutture grammaticali di una lingua.
Su quello che avviene dentro i sistemi generativi attuali, benché i segreti industriali siano gelosamente conservati, si trova molta letteratura. Basti però ricordare che il recente leak del codice di Claude ha esposto mezzo milione di righe TypeScript, che trovi comodamente su GitHub [https://github.com/codeaashu/claude-code]. E no, non sono i pesi del modello, dunque li puoi ispezionare. Enjoy.
E cosa sono mezzo milione di righe nell'informatica moderna, una goccia. Il kernel Linux ha 40 milioni di righe, l'applicazione web che ho tra le mani, tra framework e librerie vendor, ne ha quasi tre milioni. Hai fatto l'esempio dell'automobile. Bene, facciamo che io smonto pezzo per pezzo la mia auto e la do al mio meccanico dicendogli di provarmela, mi tengo però a casa il motore. Il meccanico mi prenderà per pazzo. Quando scrivi "al più determinare questioni di rendering linguistico", ti sembra poco? E' quello che c'è scritto nella petizione: "Il rischio non è questa tecnologia in sé, ma il modo in cui l'interpretiamo. Se trattiamo la fluidità linguistica come prova di conoscenza o deleghiamo il giudizio senza comprendere il funzionamento dello strumento, rischiamo di confondere coerenza con affidabilità. In questo modo può cambiare, spesso senza accorgercene, il criterio con cui riconosciamo ciò che è conoscenza." I tool, gli agent, sono come i plugin che inserisco nel mio "stupido" gestionale web. Non è che se ne metto di più, diventa più intelligente. A.
Caro Antonio, Per capire la questione del “rendering linguistico” puoi pensare agli esercizi di stile di Quenau: un semplice episodio (un uomo che si lamenta perché nell’autobus qualcuno lo spinge) viene raccontato in 99 modi diversi. Il contenuto fattuale (quello che conta per l’episteme) è lo stesso, le parole usate per veicolarlo sono diversissime. Il punto che cercavo di chiarire è che il contenuto epistemico si trova spesso *fuori* dal meccanismo generativo c.d. “stocastico” (che poi ci sarebbe da dire anche sull’aggettivo, ma vabbè). Quanto al tuo esempio della macchina, si tratta ancora a mio avviso di una fallacia: se tu sai qual è il ruolo delle varie parti, sei perfettamente in grado di capire cosa portare a chi. Da ultimo: a una riga di TypeScript potrebbero corrisponderne 100 di C, dunque a conti fatti … G.
Il giorno 8 mag 2026, alle ore 10:58, antonio via nexa <nexa@server-nexa.polito.it> ha scritto:
Su quello che avviene dentro i sistemi generativi attuali, benché i segreti industriali siano gelosamente conservati, si trova molta letteratura. Basti però ricordare che il recente leak del codice di Claude ha esposto mezzo milione di righe TypeScript, che trovi comodamente su GitHub [https://github.com/codeaashu/claude-code]. E no, non sono i pesi del modello, dunque li puoi ispezionare. Enjoy.
E cosa sono mezzo milione di righe nell'informatica moderna, una goccia. Il kernel Linux ha 40 milioni di righe, l'applicazione web che ho tra le mani, tra framework e librerie vendor, ne ha quasi tre milioni. Hai fatto l'esempio dell'automobile. Bene, facciamo che io smonto pezzo per pezzo la mia auto e la do al mio meccanico dicendogli di provarmela, mi tengo però a casa il motore. Il meccanico mi prenderà per pazzo. Quando scrivi "al più determinare questioni di rendering linguistico", ti sembra poco? E' quello che c'è scritto nella petizione: "Il rischio non è questa tecnologia in sé, ma il modo in cui l'interpretiamo. Se trattiamo la fluidità linguistica come prova di conoscenza o deleghiamo il giudizio senza comprendere il funzionamento dello strumento, rischiamo di confondere coerenza con affidabilità. In questo modo può cambiare, spesso senza accorgercene, il criterio con cui riconosciamo ciò che è conoscenza." I tool, gli agent, sono come i plugin che inserisco nel mio "stupido" gestionale web. Non è che se ne metto di più, diventa più intelligente.
A.
Ciao Guido, grazie di aver riformulato la vaga menzione degli agenti. Peraltro, usare come argomento il codice typescrypt di Claude, diffuso da un agente vibe-coded (come, dichiara Anthropic, è il codice stesso), è veramente... divertente. Dovrebbe far riflettere molti sulla utilità di questi strumenti, giacché quel codice è proprietario, tanto da spingere Anthropic a mandare decine di richieste DMCA a GitHub per censurarne la diffusione. Tentativo di censura ridicolmente fallito. ;-) Ora, se togliessimo il LLM dall'agente, nessuno lo considererebbe più rilevante nel dibattito sulla "intelligenza artificiale". Lo chiamereste semplicemente "script" o, al più, "software". Io continuerei a definirlo "agente cibernetico automatico" e ad analizzarne sensori, attuatori e centro di controllo, ad analizzarne le interazioni con gli altri agenti cibernetici (inclusi quelli autonomi) ed analizzerei l'evoluzione nel tempo dei sistemi cibernetici in cui viene inserito. Ma sappiamo già che il "framework interpretativo" della "intelligenza artificiale" non ha alcuna utilità scientifica, per cui non mi dilungo. Comunque, hai ragione: On Fri, 8 May 2026 09:24:09 +0200 Guido Vetere wrote:
Quello che avviene in quel mezzo milione di righe di codice è che la richiesta viene analizzata e classificata (intent detection), i tool opportuni identificati (si tratterà di servizi meteo), le parti parametriche estratte (Parigi, domani), i tool attivati, i loro risultati confrontati, la sintesi passata al modello come ground-truth mediante un prompt che verosimilmente chiederà a Sonnet di confezionare la risposta all’utente basandosi puntualmente su quei dati. A quel punto, la stocastica può al più determinare questioni di rendering linguistico.
la totalità del codice di Claude CHE FUNZIONA non ha NULLA a che fare con la cosiddetta "intelligenza artificiale generativa", che si limita a estrarre in output un "rendering linguistico" statisticamente coerente con il contesto. Si tratta, in altri termini, di software comunissimo (direi pure piuttosto mediocre a livello di codice). L'intelligenza che vi è espressa (e che viene riprodotta in fase di esecuzione) è quella dei "poveri" ingegneri Anthropic che l'hanno dovuto estrarre iterativamente dal LLM di Claude, correggendone faticosamente gli errori, invece di scriverlo direttamente. Ma come hai descritto tu, si tratta di un software normalissimo che svolge una serie di operazioni in sequenza invocando altri software (locali e remoti), e connettendone input e output. Le chiamate agli LLM sono, come osservi, architetturalmente irrilevanti. Perché? Perché l'unica cosa che sanno fare, è calcolare quale token risulterà più plausibile al come successivo a fronte di una sequenza di token che rappresentano il prompt e il contesto costruito dall'applicazione. Se concordiamo (FINALMENTE! :-D) che un LLM non è altro che una compressione con perdita dei contenuti usati per programmarlo (e dunque privo di qualsiasi intelligenza), e che ogni altro componente di un agente è software comune, ne consegue che gli agenti non contengono alcuna intelligenza (senza virgolette), ma sono espressione dell'intelligenza di chi li programma. Vengono venduti come "intelligenza artificiale" (con le virgolette) per rallentare l'esplosione della bolla e perché, se ignoriamo tutte le esternalità, possono fornire un'utilità di breve periodo: nel caso dei coding agent, ad esempio, permettono di ottenere estratti di codice esposto dai concorrenti (che in cambio otterranno accesso al nostro). Potresti obiettare che l'intelligenza è una caratteristica emergente dagli agenti nel proprio complesso, sebbene assente in ciascuna singola parte (inclusi gli LLM). La bellezza, in fondo, è negli occhi di chi guarda. Personalmente, avendo esperienza diretta sia della mia intelligenza, sia del funzionamento di un agente sotto debug, escludo qualsiasi somiglianza funzionale o operativa fra le due. Mi risponderai che indipendentemente dalla natura intrinseca e dal funzionamento di questi software, tu osservi un comportamento intelligente, ovvero un comportamento analogo a quello che ti aspetteresti da un essere umano fornito di analogo output. Ma anche una calcolatrice, dalla Pascalina in poi, esibisce un comportamento che, a chi non ne comprende il funzionamento, potrebbe apparire intelligente: in fondo, effettua calcoli che molti esseri umani non sanno nemmeno più fare e li effettua molto più rapidamente di noi. Dunque credo che sia molto urgente diffondere una visione realistica della "intelligenza artificiale". Infatti non esiste alcuna "intelligenza artificiale". Ed è irrealistico, al momento, attribuire intelligenza a software. Esistono agenti cibernetici automatici utili e ne esistono di dannosi. Alcuni agenti cibernetici, di entrambe le categorie, sono basati su approssimatori statistici di output plausibile. Il loro output non va interpretato come una risposta attinente all'input/prompt, ma come l'estrazione iterativa di un token da un archivio compresso con perdita. Possono rimanere utili? Se non si considera il costo (cognitivo, economico, ecologico), alcuni sì. Ad esempio è ormai diffuso il loro uso come generatori di lorem ipsum a tema per prototipi di siti web. L'agente prende in input un tema e va a sostituire un certo tag con l'output del LLM, rispettando le dimensioni previste dal layout, e facendo risparmiare al grafico diversi minuti. Giacomo
Caro Giacomo, Mi dispiace dover rifiutare le tue proposte di pace, ma no, non credo che un LLM si possa definire una 'compressione [di testo] con perdita di contenuti’ più di quanto la Gioconda si possa definire come una ’tavola con sopra un po’ di vernice’, ma di ciò più non ragioniamo. Vero è che gli sviluppi recenti (c.d. ’neurosimbolici’) stanno riportando la semantica di questi sistemi verso la rappresentazione del segno, rispetto a ciò che emerge in modo latente dalla distribuzione dei significanti, sia pure, questa, calcolata in modi raffinatissimi (attention). Questo avviene non solo per ragioni pratiche, ma anche perché un segno è criticabile (auditable), una distribuzione (specialmente se calcolata in modo raffinatissimo) assai meno. Quello che sta avvenendo è che la conoscenza fattuale (che un uomo in un tram è stato spinto, per riprendere l’esempio di Queneau) viene sempre più spesso rappresentata fuori dal livello in cui sono generati i possibili resoconti del fatto. La rappresentazione del contenuto proposizionale ci riporta sul terreno della logica, con tutti i suoi pregi e i suoi difetti. La speranza è che la grande sensibilità linguistica dimostrata dagli LLM aiuti ad attenuare questi difetti, mantenendo intatti i pregi. In ogni modo, andiamo verso una situazione in cui le applicazioni dell’AI davvero utili per le organizzazioni pubbliche e private potranno essere fatte con modelli di dimensioni contenute, anche ‘open weight’, e la partita si giocherà molto sulla qualità dei dati, dei tool, dei prompt, cioè sul livello applicativo ‘locale’. Su questo sì, possiamo essere d’accordo. Corollario: piuttosto che inseguire i giganti monopolisti con improbabili AI Farm, l’Europa (in subordine: l’Italia) dovrebbe puntare proprio su modelli che riducono la dipendenza esistenziale dai billion parameters statunitensi. Piccoli, ben ‘istruiti’, anche ottenuti con procedimenti innovativi come quelli che sta sperimentando LeCun. Puntare insomma sul cervello piuttosto che sui muscoli. Buon w.e. Guido
Il giorno 8 mag 2026, alle ore 11:04, Giacomo Tesio via nexa <nexa@server-nexa.polito.it> ha scritto:
Se concordiamo (FINALMENTE! :-D) che un LLM non è altro che una compressione con perdita dei contenuti usati per programmarlo (e dunque privo di qualsiasi intelligenza), e che ogni altro componente di un agente è software comune, ne consegue che gli agenti non contengono alcuna intelligenza (senza virgolette), ma sono espressione dell'intelligenza di chi li programma.
Guido, io ho scritto: le piattaforma generative testuali SONO basate sugli LLM, quindi quello che producono viene dagli LLM. tu mi replichi è come se dicessi che le automobili si muovono sulle ruote, dunque SONO ruote NO! Se io avessi scritto le piattaforma generative testuali SONO basate sugli LLM, quindi sono degli LLM allora avrei fatto ciò che tu dici. Ma siccome ho scritto una cosa diversa, il dibattito si chiude qua per me. Ti confermo che stanotte ho dormito benissimo... :-) Ciao, Enrico Il 08/05/2026 09:24, Guido Vetere ha scritto:
Caro Enrico, spero che la tua notte sia trascorsa serena.
Quando dici che "le piattaforma generative testuali SONO basate sugli LLM” e inviti me a non intorbidire le acque, è come se dicessi che le automobili si muovono sulle ruote, dunque SONO ruote. Si tratta di un errore mereologico (di composizione, pars pro toto) abbastanza frequente, che mostra quanto sia fragile anche la nostra vantata razionalità.
Su quello che avviene dentro i sistemi generativi attuali, benché i segreti industriali siano gelosamente conservati, si trova molta letteratura. Basti però ricordare che il recente leak del codice di Claude ha esposto mezzo milione di righe TypeScript, che trovi comodamente su GitHub [https://github.com/codeaashu/claude-code]. E no, non sono i pesi del modello, dunque li puoi ispezionare. Enjoy.
Ma visto che vogliamo essere galileiani, facciamo un piccolo esperimento.
Se ora chiedi a Sonnet “Che tempo fa domani a Parigi?”, ti risponderà qualcosa del tipo:
/Domani a Parigi (sabato 9 maggio) dovrebbe essere una bella giornata: soleggiato, con massima di 24°C e solo un 20% di probabilità di pioggia. Domenica invece peggiora un po', con copertura nuvolosa e probabilità di pioggia al 45%./
Secondo te una risposta del genere può essere stata prodotta prevedendo i token su base statistica? Che statistiche abbiamo sul futuro?
Quello che avviene in quel mezzo milione di righe di codice è che la richiesta viene analizzata e classificata (intent detection), i tool opportuni identificati (si tratterà di servizi meteo), le parti parametriche estratte (Parigi, domani), i tool attivati, i loro risultati confrontati, la sintesi passata al modello come ground-truth mediante un prompt che verosimilmente chiederà a Sonnet di confezionare la risposta all’utente basandosi puntualmente su quei dati. A quel punto, la stocastica può al più determinare questioni di rendering linguistico. La partita della verità, che tanto sta a cuore a chi parla di ‘epistemia’, si gioca nel campo di chi fa i servizi meteo – gli stessi che tu consulti tranquillamente dopo aver preso il caffè la mattina.
E con questo ti auguro cordialmente buona giornata.
Guido
Il giorno 7 mag 2026, alle ore 23:51, Enrico Nardelli via nexa <nexa@server-nexa.polito.it> ha scritto:
Perdonami Guido
osservo preliminarmente che le piattaforma generative testuali SONO basate sugli LLM, quindi quello che producono viene dagli LLM. Quando si parla di Intelligenza Artificiale generativa in ambito testuale, che è quello più rilevante quando si parla di intelligenza e comprensione, si parla di LLM. Non intorbidiamo le acque.
Poi, sei tu che hai l'onere di fornire la prova «che le piattaforme generative fanno ben altro che predire stocasticamente il “prossimo token”».
Giacomo Tesio in un altro messaggio oggi ha chiesto
Il 07/05/2026 18:28, Giacomo Tesio via nexa ha scritto:
Ciao Giuseppe,
On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote:
Ci sono numerosi casi di risultati che non sono ottenibili “riorganizzando informazioni già presenti nei dati”. Puoi condividere un paio di esempi riproducibili?
Giusto per non limitarsi ad aneddoti commerciali.
Stiamo ancora aspettando la risposta.
Che gli LLM funzionino esattamente come predittori del prossimo token, con una serie di ammenicoli di contorno che non cambiano la loro natura di fondo, è spiegato - tra l'altro - nello studio citato in questo articolo https://www.computerworld.com/article/4059383/openai-admits-ai-hallucination...
«/In a landmark study, OpenAI researchers reveal that large language models will always produce plausible but false outputs, even with perfect data, due to fundamental statistical and computational limits./»
Ribadisco quanto ho scritto nella mia prima risposta a Beppe:
/il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in questo momento./
Stefano Quintarelli, in una mail di poco fa, ha fatto un'ulteriore osservazione che chiunque si occupi di dimostrare in modo galileiano la natura di un qualche fenomeno dovrebbe ben tener presente (la riformulo con parole mie): siamo sicuri che non esistono altre cause che spieghino lo stesso risultato?
Quindi, d'ora in avanti, smetterò di replicare ad argomenti che non siano fondati su evidenze sperimentali, vaste, robuste e riproducibili.
Buona notte, Enrico
Il 07/05/2026 22:49, Guido Vetere ha scritto:
Tuttavia, quando vi si fa osservare – dati alla mano – che le piattaforme generative (da non confondere coi language model) fanno ben altro che predire stocasticamente il “prossimo token”, non arrivano repliche. La “verità” sulla quale chiamate a raccolta l’intera comunità scientifica è in effetti una opinione, e anche molto discutibile a quanto pare (ironico, per chi parla di “epistemia”). Se proprio si vuol fare la conta, non sarebbe più onesto fare un sondaggio o un questionario, piuttosto che una petizione? Perché invece di un appello all’autorità accademica (!) su qualcosa di controverso non si fa una onesta discussione di merito? Questo sarebbe anche un posto giusto. La petizione che avete proposto rischia anche di essere regressiva, specularmente all’intervista di Veltroni. Capire bene come stanno le cose è fondamentale per indirizzare la ricerca nella direzione del progresso (vs. del profitto), e se qualcuno che ha fatto l’NLP in Italia (parlo di Beppe, naturalmente) dice che state sbagliando qualcosa, forse sarebbe il caso di parlarne con calma.
G.
Il giorno 7 mag 2026, alle ore 18:40, Enrico Nardelli via nexa <nexa@server-nexa.polito.it> ha scritto:
Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in questo momento.
--
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html
<SXK2RJtn2vzsq6qC.png> ====================================================== Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ======================================================
--
-- -- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
Suvvia Enrico, non te la prendere: non è nulla di personale. On Fri, 8 May 2026 17:43:17 +0200 Enrico Nardelli wrote:
Guido, io ho scritto: [...]
tu mi replichi [...]
NO! Se io avessi scritto [...]
Ma siccome ho scritto una cosa diversa, [...]
Sono certo che Guido non abbia usato un agente automatico per ottenere un riassunto della tua mail perché sa che sarebbe un'enorme mancanza di rispetto per il tempo che hai dedicato a scrivergli. Semplicemente, leggere fischi per fiaschi è un effetto collaterale comunissimo dell'uso intensivo di riassunti prodotti da software programmati statisticamente. Come ogni altra facoltà intellettiva, l'attenzione richiede costante allenamento. Nemmeno Anthropic ha il coraggio di negarlo [1][2]: https://www.anthropic.com/research/AI-assistance-coding-skills """ On average, participants in the AI group finished about two minutes faster, although the difference was not statistically significant. There was, however, a significant difference in test scores: the AI group averaged 50% on the quiz, compared to 67% in the hand-coding group—or the equivalent of nearly two letter grades (Cohen's d=0.738, p=0.01). The largest gap in scores between the two groups was on debugging questions, suggesting that the ability to understand when code is incorrect and why it fails may be a particular area of concern if AI impedes coding development. """ Un effetto collaterale che tende a vanificare persino l'utilità dei "riassunti automatici" per chi, come suggerivo in altra mail, legge comunque i documenti da riassumere. Giacomo [1] pur argomentato che dipende da come le usi, per cui se rincretinisci, è solo colpa tua... ;-) [2] Per altro, ben 2 minuti in meno nel completare lo sviluppo con un AI (a pagamento) per diverse ore in più a debuggarlo: che affarone! :-D
Grazie Giacomo per il riferimento a questo studio di Antrhopic, che non conoscevo quando avevo scritto il mio pezzo di un paio di mesi fa us IAgen e sviluppo software https://www.startmag.it/innovazione/iagen-lavoro-sviluppo-software/ È molto interessante, perché condotto seguendo gli approcci usati nella ricerca in didattica dell'informatica (o computer science education che dir si voglia): /We found that *using AI assistance led to a statistically significant decrease in mastery*. On a quiz that covered concepts they’d used just a few minutes before, participants in the AI group scored 17% lower than those who coded by hand, or the equivalent of nearly two letter grades. Using AI sped up the task slightly, but this didn’t reach the threshold of statistical significance/. Questo risultato ribatte quello in molti altri settori sta emergendo rispetto all'uso dell'IA nel settore educativo, che è esemplificato da questo studio massiccio (di cui forse si è già parlato qui in mailing list) sul cosiddetto "Debito Cognitivo". Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task https://arxiv.org/pdf/2506.08872v2 /As the educational impact of LLM use only begins to settle with the general population, in this study we demonstrate the pressing matter of a likely decrease in learning skills based on the results of our study. *The use of LLM had a measurable impact on participants*, and while the benefits were initially apparent, as we demonstrated over the course of 4 months, *the LLM group's participants performed worse than their counterparts in the Brain-only group at all levels: neural, linguistic, scoring*/ Ciao, Enrico NB: il grassetto delle citazioni è mio Il 08/05/2026 19:57, Giacomo Tesio via nexa ha scritto:
Suvvia Enrico, non te la prendere: non è nulla di personale.
On Fri, 8 May 2026 17:43:17 +0200 Enrico Nardelli wrote:
Guido, io ho scritto: [...]
tu mi replichi [...]
NO! Se io avessi scritto [...]
Ma siccome ho scritto una cosa diversa, [...] Sono certo che Guido non abbia usato un agente automatico per ottenere un riassunto della tua mail perché sa che sarebbe un'enorme mancanza di rispetto per il tempo che hai dedicato a scrivergli.
Semplicemente, leggere fischi per fiaschi è un effetto collaterale comunissimo dell'uso intensivo di riassunti prodotti da software programmati statisticamente.
Come ogni altra facoltà intellettiva, l'attenzione richiede costante allenamento. Nemmeno Anthropic ha il coraggio di negarlo [1][2]: https://www.anthropic.com/research/AI-assistance-coding-skills
""" On average, participants in the AI group finished about two minutes faster, although the difference was not statistically significant. There was, however, a significant difference in test scores: the AI group averaged 50% on the quiz, compared to 67% in the hand-coding group—or the equivalent of nearly two letter grades (Cohen's d=0.738, p=0.01). The largest gap in scores between the two groups was on debugging questions, suggesting that the ability to understand when code is incorrect and why it fails may be a particular area of concern if AI impedes coding development. """
Un effetto collaterale che tende a vanificare persino l'utilità dei "riassunti automatici" per chi, come suggerivo in altra mail, legge comunque i documenti da riassumere.
Giacomo
[1] pur argomentato che dipende da come le usi, per cui se rincretinisci, è solo colpa tua... ;-)
[2] Per altro, ben 2 minuti in meno nel completare lo sviluppo con un AI (a pagamento) per diverse ore in più a debuggarlo: che affarone! :-D
-- -- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
Caro Enrico, volevo ringraziarti di aver rivolto ai tuoi colleghi, con la lettera aperta, un invito a non coltivare quello che chiamate un "fraintendimento". Come accade sovente in ambito religioso, c'è un doppio aspetto: - il fraintendimento di cui vi occupate, generato da una debolezza antropologica, dalla tendenza della natura umana a una forma animistica di pensiero magico; - l'inganno dei sacerdoti di questa specifica religione statutaria, variamente interessati al potere o al profitto che derivano da un simile culto. Da un punto di vista filosofico, gli argomenti di Searle su intelligenza e proprietà emergenti non sono mai stati confutati. La religione della tecnologia resta: già David Noble osservava che il concetto stesso di intelligenza artificiale è erede del mito giudaico-cristiano della creazione come di una procreazione divina maschile, senza donne e senza sesso. Trattandosi di un culto, qualcuno ha legittimamente richiesto di essere esentato dall'uso dei chatbot in nome della libertà religiosa (Catherine Sawers: "I have a religious exemption from using all generative 'A.I.' I am not a member of the Silicon Valley sect"). Ne approfitto per aggiungere all'elenco tuo e di Giacomo (se le aveste già citate, scusatemi) un altro paio di pubblicazioni sugli effetti dequalificanti dell'uso dei chatbot: - sulla "resa cognitiva", in virtù della quale si finisce per adottare l’output di un chatbot senza verifica e anche nei casi in cui contrasti con le proprie intuizioni o i propri ragionamenti*; - sull'atrofia cognitiva negli adulti e sul mancato apprendimento nei bambini: negli adulti, con l’uso dei chatbot si indeboliscono, senza rendersene conto, le capacità che si possedevano e che possono tuttavia essere recuperate; nei giovani, l’uso di tali sistemi preclude del tutto l’apprendimento e abitua a a omologarsi, a non pensare, a recepire pensieri già formulati da altri**; Va da sé che non si tratti di spiacevoli effetti collaterali, ma, come sempre, di una delle funzioni di questi sistemi, ritenute economicamente e politicamente utili dal complesso militare-industriale che controlla, in questo momento, le traiettorie di sviluppo della tecnologia: dequalificazione e dipendenza da piattaforme e software proprietari, per quanto scadenti, sono obiettivi intrecciati, funzionali alla riduzione dei cittadini a sudditi in stato di minorità. L'obiettivo delle grandissime aziende è che, anche nella vita privata, attività e relazioni umane siano non solo mediate dai loro prodotti, ma siano intrattenute direttamente con quelli, anziché con altri esseri umani: anche in questo ambito si mira a produrre dipendenza, perché questa è funzionale alla sorveglianza, alla manipolazione e al controllo degli utenti. Si diventa dipendenti dall'amico immaginario perché nella realtà c'è un software che estrude output che danno rinforzo senza contenimento, all'infinito. Psicologicamente, è una ricetta per il disastro. Non a caso, qualcuno ha osservato che l'attuale modello di business dell'IA generativa è quello della "psicosi come servizio". Non stupisce, quindi, il caso italiano recentissimo - dopo gli innumerevoli casi statunitensi - di una dipendenza da chatbot presa in carico dal sistema sanitario. Uno pseudo studio edtech sugli effetti positivi dei chatbot è appena stato ritrattato da Nature***. Un caro saluto, Daniela * Timothy Cook, Adults Lose Skills to AI. Children Never Build Them, “Psychilogy Today”, March 22, 2026, https://www.psychologytoday.com/us/blog/the-algorithmic-mind/202603/adults-l.... ** Steven D. Shaw, Gideon Nave, Thinking ‐ Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender, “The Wharton School Research Paper”, January 11, 2026, https://doi.org/10.31234/osf.io/yk25n_v1. *** Retraction Note: The effect of ChatGPT on students’ learning performance, learning perception, and higher-order thinking: insights from a meta-analysis, https://www.nature.com/articles/s41599-026-07310-z. ________________________________________ Da: Enrico Nardelli via nexa <nexa@server-nexa.polito.it> Inviato: sabato 9 maggio 2026 19:20 A: nexa@server-nexa.polito.it Oggetto: [nexa] Re: Una visione realistica dell’Intelligenza Artificiale - Lettera aperta alla società Grazie Giacomo per il riferimento a questo studio di Antrhopic, che non conoscevo quando avevo scritto il mio pezzo di un paio di mesi fa us IAgen e sviluppo software https://www.startmag.it/innovazione/iagen-lavoro-sviluppo-software/ È molto interessante, perché condotto seguendo gli approcci usati nella ricerca in didattica dell'informatica (o computer science education che dir si voglia): We found that using AI assistance led to a statistically significant decrease in mastery. On a quiz that covered concepts they’d used just a few minutes before, participants in the AI group scored 17% lower than those who coded by hand, or the equivalent of nearly two letter grades. Using AI sped up the task slightly, but this didn’t reach the threshold of statistical significance. Questo risultato ribatte quello in molti altri settori sta emergendo rispetto all'uso dell'IA nel settore educativo, che è esemplificato da questo studio massiccio (di cui forse si è già parlato qui in mailing list) sul cosiddetto "Debito Cognitivo". Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task https://arxiv.org/pdf/2506.08872v2 As the educational impact of LLM use only begins to settle with the general population, in this study we demonstrate the pressing matter of a likely decrease in learning skills based on the results of our study. The use of LLM had a measurable impact on participants, and while the benefits were initially apparent, as we demonstrated over the course of 4 months, the LLM group's participants performed worse than their counterparts in the Brain-only group at all levels: neural, linguistic, scoring Ciao, Enrico NB: il grassetto delle citazioni è mio Il 08/05/2026 19:57, Giacomo Tesio via nexa ha scritto: Suvvia Enrico, non te la prendere: non è nulla di personale. On Fri, 8 May 2026 17:43:17 +0200 Enrico Nardelli wrote: Guido, io ho scritto: [...] tu mi replichi [...] NO! Se io avessi scritto [...] Ma siccome ho scritto una cosa diversa, [...] Sono certo che Guido non abbia usato un agente automatico per ottenere un riassunto della tua mail perché sa che sarebbe un'enorme mancanza di rispetto per il tempo che hai dedicato a scrivergli. Semplicemente, leggere fischi per fiaschi è un effetto collaterale comunissimo dell'uso intensivo di riassunti prodotti da software programmati statisticamente. Come ogni altra facoltà intellettiva, l'attenzione richiede costante allenamento. Nemmeno Anthropic ha il coraggio di negarlo [1][2]: https://www.anthropic.com/research/AI-assistance-coding-skills """ On average, participants in the AI group finished about two minutes faster, although the difference was not statistically significant. There was, however, a significant difference in test scores: the AI group averaged 50% on the quiz, compared to 67% in the hand-coding group—or the equivalent of nearly two letter grades (Cohen's d=0.738, p=0.01). The largest gap in scores between the two groups was on debugging questions, suggesting that the ability to understand when code is incorrect and why it fails may be a particular area of concern if AI impedes coding development. """ Un effetto collaterale che tende a vanificare persino l'utilità dei "riassunti automatici" per chi, come suggerivo in altra mail, legge comunque i documenti da riassumere. Giacomo [1] pur argomentato che dipende da come le usi, per cui se rincretinisci, è solo colpa tua... ;-) [2] Per altro, ben 2 minuti in meno nel completare lo sviluppo con un AI (a pagamento) per diverse ore in più a debuggarlo: che affarone! :-D -- -- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html [cid:part1.B02fsOl4.0jOB00vj@mat.uniroma2.it] ====================================================== Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it<mailto:nardelli@mat.uniroma2.it> online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
Cara Daniela grazie a te per ricordare sempre infaticabilmente l'importanza di riflettere su cosa fanno questi strumenti alla società e di cercare di riprenderne il controllo. Grazie anche per i riferimenti (*) e (**) che non conoscevo. Molto interessante il riferimento alla visione dell'IAgen come "culto"... 🙂 Segnalo questi due ulteriori articoli interessanti in merito ai danni dell'uso di strumenti di IAgen nei processi di apprendimento: - questo di Anthropic, particolarmente rilevante perché è sostanzialmente l'oste che dice che il suo vino può far male How AI assistance impacts the formation of coding skills https://www.anthropic.com/research/AI-assistance-coding-skills - questo di ricercatori indipendenti su matematica e lettura AI Assistance Reduces Persistence and Hurts Independent Performance https://ai-project-website.github.io/AI-assistance-reduces-persistence/ Ciao, Enrico Il 10/05/2026 11:49, Daniela Tafani ha scritto:
Caro Enrico,
volevo ringraziarti di aver rivolto ai tuoi colleghi, con la lettera aperta, un invito a non coltivare quello che chiamate un "fraintendimento".
Come accade sovente in ambito religioso, c'è un doppio aspetto:
- il fraintendimento di cui vi occupate, generato da una debolezza antropologica, dalla tendenza della natura umana a una forma animistica di pensiero magico; - l'inganno dei sacerdoti di questa specifica religione statutaria, variamente interessati al potere o al profitto che derivano da un simile culto.
Da un punto di vista filosofico, gli argomenti di Searle su intelligenza e proprietà emergenti non sono mai stati confutati.
La religione della tecnologia resta: già David Noble osservava che il concetto stesso di intelligenza artificiale è erede del mito giudaico-cristiano della creazione come di una procreazione divina maschile, senza donne e senza sesso.
Trattandosi di un culto, qualcuno ha legittimamente richiesto di essere esentato dall'uso dei chatbot in nome della libertà religiosa (Catherine Sawers: "I have a religious exemption from using all generative 'A.I.' I am not a member of the Silicon Valley sect").
Ne approfitto per aggiungere all'elenco tuo e di Giacomo (se le aveste già citate, scusatemi) un altro paio di pubblicazioni sugli effetti dequalificanti dell'uso dei chatbot:
- sulla "resa cognitiva", in virtù della quale si finisce per adottare l’output di un chatbot senza verifica e anche nei casi in cui contrasti con le proprie intuizioni o i propri ragionamenti*; - sull'atrofia cognitiva negli adulti e sul mancato apprendimento nei bambini: negli adulti, con l’uso dei chatbot si indeboliscono, senza rendersene conto, le capacità che si possedevano e che possono tuttavia essere recuperate; nei giovani, l’uso di tali sistemi preclude del tutto l’apprendimento e abitua a a omologarsi, a non pensare, a recepire pensieri già formulati da altri**;
Va da sé che non si tratti di spiacevoli effetti collaterali, ma, come sempre, di una delle funzioni di questi sistemi, ritenute economicamente e politicamente utili dal complesso militare-industriale che controlla, in questo momento, le traiettorie di sviluppo della tecnologia: dequalificazione e dipendenza da piattaforme e software proprietari, per quanto scadenti, sono obiettivi intrecciati, funzionali alla riduzione dei cittadini a sudditi in stato di minorità.
L'obiettivo delle grandissime aziende è che, anche nella vita privata, attività e relazioni umane siano non solo mediate dai loro prodotti, ma siano intrattenute direttamente con quelli, anziché con altri esseri umani: anche in questo ambito si mira a produrre dipendenza, perché questa è funzionale alla sorveglianza, alla manipolazione e al controllo degli utenti. Si diventa dipendenti dall'amico immaginario perché nella realtà c'è un software che estrude output che danno rinforzo senza contenimento, all'infinito. Psicologicamente, è una ricetta per il disastro. Non a caso, qualcuno ha osservato che l'attuale modello di business dell'IA generativa è quello della "psicosi come servizio". Non stupisce, quindi, il caso italiano recentissimo - dopo gli innumerevoli casi statunitensi - di una dipendenza da chatbot presa in carico dal sistema sanitario.
Uno pseudo studio edtech sugli effetti positivi dei chatbot è appena stato ritrattato da Nature***.
Un caro saluto, Daniela
* Timothy Cook, Adults Lose Skills to AI. Children Never Build Them, “Psychilogy Today”, March 22, 2026,https://www.psychologytoday.com/us/blog/the-algorithmic-mind/202603/adults-l.... ** Steven D. Shaw, Gideon Nave, Thinking ‐ Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender, “The Wharton School Research Paper”, January 11, 2026,https://doi.org/10.31234/osf.io/yk25n_v1. *** Retraction Note: The effect of ChatGPT on students’ learning performance, learning perception, and higher-order thinking: insights from a meta-analysis,https://www.nature.com/articles/s41599-026-07310-z.
________________________________________ Da: Enrico Nardelli via nexa<nexa@server-nexa.polito.it> Inviato: sabato 9 maggio 2026 19:20 A:nexa@server-nexa.polito.it Oggetto: [nexa] Re: Una visione realistica dell’Intelligenza Artificiale - Lettera aperta alla società
Grazie Giacomo
per il riferimento a questo studio di Antrhopic, che non conoscevo quando avevo scritto il mio pezzo di un paio di mesi fa us IAgen e sviluppo softwarehttps://www.startmag.it/innovazione/iagen-lavoro-sviluppo-software/
È molto interessante, perché condotto seguendo gli approcci usati nella ricerca in didattica dell'informatica (o computer science education che dir si voglia):
We found that using AI assistance led to a statistically significant decrease in mastery. On a quiz that covered concepts they’d used just a few minutes before, participants in the AI group scored 17% lower than those who coded by hand, or the equivalent of nearly two letter grades. Using AI sped up the task slightly, but this didn’t reach the threshold of statistical significance.
Questo risultato ribatte quello in molti altri settori sta emergendo rispetto all'uso dell'IA nel settore educativo, che è esemplificato da questo studio massiccio (di cui forse si è già parlato qui in mailing list) sul cosiddetto "Debito Cognitivo".
Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task https://arxiv.org/pdf/2506.08872v2
As the educational impact of LLM use only begins to settle with the general population, in this study we demonstrate the pressing matter of a likely decrease in learning skills based on the results of our study. The use of LLM had a measurable impact on participants, and while the benefits were initially apparent, as we demonstrated over the course of 4 months, the LLM group's participants performed worse than their counterparts in the Brain-only group at all levels: neural, linguistic, scoring
Ciao, Enrico
NB: il grassetto delle citazioni è mio
Il 08/05/2026 19:57, Giacomo Tesio via nexa ha scritto:
Suvvia Enrico, non te la prendere: non è nulla di personale.
On Fri, 8 May 2026 17:43:17 +0200 Enrico Nardelli wrote:
Guido, io ho scritto: [...]
tu mi replichi [...]
NO! Se io avessi scritto [...]
Ma siccome ho scritto una cosa diversa, [...]
Sono certo che Guido non abbia usato un agente automatico per ottenere un riassunto della tua mail perché sa che sarebbe un'enorme mancanza di rispetto per il tempo che hai dedicato a scrivergli.
Semplicemente, leggere fischi per fiaschi è un effetto collaterale comunissimo dell'uso intensivo di riassunti prodotti da software programmati statisticamente.
Come ogni altra facoltà intellettiva, l'attenzione richiede costante allenamento. Nemmeno Anthropic ha il coraggio di negarlo [1][2]: https://www.anthropic.com/research/AI-assistance-coding-skills
""" On average, participants in the AI group finished about two minutes faster, although the difference was not statistically significant. There was, however, a significant difference in test scores: the AI group averaged 50% on the quiz, compared to 67% in the hand-coding group—or the equivalent of nearly two letter grades (Cohen's d=0.738, p=0.01). The largest gap in scores between the two groups was on debugging questions, suggesting that the ability to understand when code is incorrect and why it fails may be a particular area of concern if AI impedes coding development. """
Un effetto collaterale che tende a vanificare persino l'utilità dei "riassunti automatici" per chi, come suggerivo in altra mail, legge comunque i documenti da riassumere.
Giacomo
[1] pur argomentato che dipende da come le usi, per cui se rincretinisci, è solo colpa tua... ;-)
[2] Per altro, ben 2 minuti in meno nel completare lo sviluppo con un AI (a pagamento) per diverse ore in più a debuggarlo: che affarone! :-D
--
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html [cid:part1.B02fsOl4.0jOB00vj@mat.uniroma2.it] ====================================================== Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page:https://www.mat.uniroma2.it/~nardelli blog:https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail:nardelli@mat.uniroma2.it<mailto:nardelli@mat.uniroma2.it> online meeting:https://blue.meet.garr.it/b/enr-y7f-t0q-ont ======================================================
-- --
-- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
Non prendere decisioni affrettate Enrico... On Thu, 7 May 2026 23:51:17 +0200 Enrico Nardelli wrote:
Quindi, d'ora in avanti, smetterò di replicare ad argomenti che non siano fondati su evidenze sperimentali, vaste, robuste e riproducibili.
l'intera economia statunitense si è fortemente legata a questa allucinazione collettiva: ci vorranno ancora anni e probabilmente diverse guerre prima che questa bolla diventi un butto ricordo e tutti gli "esperti" che ci ammorbano si scoprano "critici dell'AI". Se aspetti di dicutere evidenze scientifiche, potremmo non sentirti per molto, molto tempo. Ti chiederei dunque di continuare a contribuire alla lista anche smontare le supercazzole pubblicate in merito. Giacomo
On 08/05/26 09:26, Giacomo Tesio via nexa wrote:
l'intera economia statunitense si è fortemente legata a questa allucinazione collettiva: ci vorranno ancora anni e probabilmente diverse guerre prima che questa bolla diventi un butto ricordo e tutti gli "esperti" che ci ammorbano si scoprano "critici dell'AI".
bolla ? si inutile ? no questi oggetti, anche se non pensano (non sognano, non immaginano, non riflettono, ecc.) e anche se producono artefatti (che noi, attribuendo un senso, chiamiamo errori), sono comunque assai utili! il mondo (e le aziende) e' pieno di casi d'uso in cui l'approssimazione va piu' che bene, fintanto che lo human resta in the lead. come dice uno dei capi di openai, oggi costano piu' degli umani. e la speculazione fa il resto. per cui, si, siamo in bolla. si sgonfiera' (tanto, poco ?) nel frattempo, forse, qualcuno avra' raccolto abbastanza soldi da donatori?W investitori, sufficienti per traghettarsi fino al momento della sostenibilita' economica. imho -- You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)
Il 08/05/2026 11:00, Stefano Quintarelli via nexa ha scritto:
bolla ? si inutile ? no questi oggetti, anche se non pensano (non sognano, non immaginano, non riflettono, ecc.) e anche se producono artefatti (che noi, attribuendo un senso, chiamiamo errori), sono comunque assai utili! il mondo (e le aziende) e' pieno di casi d'uso in cui l'approssimazione va piu' che bene, fintanto che lo human resta in the lead. come dice uno dei capi di openai, oggi costano piu' degli umani. e la speculazione fa il resto. per cui, si, siamo in bolla. si sgonfiera' (tanto, poco ?) nel frattempo, forse, qualcuno avra' raccolto abbastanza soldi da donatori?W investitori, sufficienti per traghettarsi fino al momento della sostenibilita' economica. imho
Sono molto d'accordo con la visione pragmatica di Stefano. Non sarà la nuova età dell'oro né la fine del mondo. Qualcuno perderà molti soldi (ma, se prendiamo la crisi Lehman-Brothers come esempio, o anche quello che è successo in Europa con le banche franco-tedesche al tempo della crisi greca, se li farà ridare da governi più o meno compiacenti) qualcuno farà comunque dei soldi perché c'è comunque un'utilità in queste tecnologie. La vera sfida è sociale: abbiamo visto i danni che hanno prodotto smartphone e social a go-go soprattutto sulla generazioni più giovani - Juan Carlos ci ha scritto un intero libro, io ne ho scritto recentemente qui https://www.startmag.it/innovazione/strumenti-digitali-e-apprendimento-plato... L'invasività delle tecnologie basate sull'IA è ancora maggiore e più nefasta (e Daniela Tafani ce lo ricorda periodicamente). Qui https://arxiv.org/abs/2601.19062 c'è un'analisi di un milione e mezzo di conversazioni, con questo abstract: /... We focus on situational disempowerment potential, which occurs when AI assistant interactions risk leading users to form distorted perceptions of reality, make inauthentic value judgments, or act in ways misaligned with their values. Quantitatively, we find that severe forms of disempowerment potential occur in fewer than one in a thousand conversations, though rates are substantially higher in personal domains like relationships and lifestyle. Qualitatively, we uncover several concerning patterns, such as validation of persecution narratives and grandiose identities with emphatic sycophantic language, definitive moral judgments about third parties, and complete scripting of value-laden personal communications that users appear to implement verbatim. Analysis of historical trends reveals an increase in the prevalence of disempowerment potential over time. We also find that interactions with greater disempowerment potential receive higher user approval ratings, possibly suggesting a tension between short-term user preferences and long-term human empowerment. .../ Non c'è da stare allegri. Ci sono dei segni di reazione, vedi ad esempio https://futurism.com/artificial-intelligence/gen-z-turning-against-ai /... there’s been a surge in resentment towards AI, which has encroached almost every aspect of our daily lives, from the never-ending slop in our social media feeds to flawed chatbots poorly assuming the roles of human customer service agents. As The Verge reports, the backlash is particularly apparent among Gen Z, a demographic that’s at the epicenter of the industry’s push for AI adoption. The generation is facing a dire post-graduation job market after losing much of its youth to the COVID-19 pandemic. Usually, young people love new innovations. But for Gen Z, a tech inherently designed to replace human agency is strikingly unwelcome — and inspiring a growing rebellion. .../ Ma c'è ancora molto lavoro da fare, soprattutto di sensibilizzazione e di alfabetizzazione, su cosa sono davvero queste tecnologie e cosa fanno e, soprattutto (cfr. Cory Doctorow) a chi lo fanno e per conto di chi lo fanno. Buon fine settimana a tutti, Enrico -- -- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
http://sovranitadellamente.org/ ... On 08/05/26 20:31, Enrico Nardelli via nexa wrote:
Il 08/05/2026 11:00, Stefano Quintarelli via nexa ha scritto:
bolla ? si inutile ? no questi oggetti, anche se non pensano (non sognano, non immaginano, non riflettono, ecc.) e anche se producono artefatti (che noi, attribuendo un senso, chiamiamo errori), sono comunque assai utili! il mondo (e le aziende) e' pieno di casi d'uso in cui l'approssimazione va piu' che bene, fintanto che lo human resta in the lead. come dice uno dei capi di openai, oggi costano piu' degli umani. e la speculazione fa il resto. per cui, si, siamo in bolla. si sgonfiera' (tanto, poco ?) nel frattempo, forse, qualcuno avra' raccolto abbastanza soldi da donatori?W investitori, sufficienti per traghettarsi fino al momento della sostenibilita' economica. imho
Sono molto d'accordo con la visione pragmatica di Stefano.
Non sarà la nuova età dell'oro né la fine del mondo.
Qualcuno perderà molti soldi (ma, se prendiamo la crisi Lehman-Brothers come esempio, o anche quello che è successo in Europa con le banche franco-tedesche al tempo della crisi greca, se li farà ridare da governi più o meno compiacenti) qualcuno farà comunque dei soldi perché c'è comunque un'utilità in queste tecnologie.
La vera sfida è sociale: abbiamo visto i danni che hanno prodotto smartphone e social a go-go soprattutto sulla generazioni più giovani - Juan Carlos ci ha scritto un intero libro, io ne ho scritto recentemente qui https://www.startmag.it/innovazione/strumenti-digitali-e- apprendimento-platone-vince-ancora/
L'invasività delle tecnologie basate sull'IA è ancora maggiore e più nefasta (e Daniela Tafani ce lo ricorda periodicamente).
Qui https://arxiv.org/abs/2601.19062 c'è un'analisi di un milione e mezzo di conversazioni, con questo abstract: /... We focus on situational disempowerment potential, which occurs when AI assistant interactions risk leading users to form distorted perceptions of reality, make inauthentic value judgments, or act in ways misaligned with their values. Quantitatively, we find that severe forms of disempowerment potential occur in fewer than one in a thousand conversations, though rates are substantially higher in personal domains like relationships and lifestyle. Qualitatively, we uncover several concerning patterns, such as validation of persecution narratives and grandiose identities with emphatic sycophantic language, definitive moral judgments about third parties, and complete scripting of value- laden personal communications that users appear to implement verbatim. Analysis of historical trends reveals an increase in the prevalence of disempowerment potential over time. We also find that interactions with greater disempowerment potential receive higher user approval ratings, possibly suggesting a tension between short-term user preferences and long-term human empowerment. .../
Non c'è da stare allegri.
Ci sono dei segni di reazione, vedi ad esempio https://futurism.com/ artificial-intelligence/gen-z-turning-against-ai
/... there’s been a surge in resentment towards AI, which has encroached almost every aspect of our daily lives, from the never-ending slop in our social media feeds to flawed chatbots poorly assuming the roles of human customer service agents. As The Verge reports, the backlash is particularly apparent among Gen Z, a demographic that’s at the epicenter of the industry’s push for AI adoption. The generation is facing a dire post-graduation job market after losing much of its youth to the COVID-19 pandemic. Usually, young people love new innovations. But for Gen Z, a tech inherently designed to replace human agency is strikingly unwelcome — and inspiring a growing rebellion. .../
Ma c'è ancora molto lavoro da fare, soprattutto di sensibilizzazione e di alfabetizzazione, su cosa sono davvero queste tecnologie e cosa fanno e, soprattutto (cfr. Cory Doctorow) a chi lo fanno e per conto di chi lo fanno.
Buon fine settimana a tutti, Enrico
--
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ======================================================
--
-- You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)
participants (12)
-
abregni -
Andrea Bolioli -
antonio -
Daniela Tafani -
Enrico Nardelli -
Giacomo Tesio -
Giuseppe Attardi -
Guido Vetere -
Massimo Maria Ghisalberti -
Silvia Crafa -
Stefano Borroni Barale -
Stefano Quintarelli