Re: Una visione realistica dell’Intelligenza Artificiale - Lettera aperta alla società
On 7 May 2026, at 18:40, nexa-request@server-nexa.polito.it wrote: From: Enrico Nardelli <nardelli@mat.uniroma2.it<mailto:nardelli@mat.uniroma2.it>> Subject: [nexa] Re: Una visione realistica dell’Intelligenza Artificiale - Lettera aperta alla società To: nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> Message-ID: <8a7f9333-4605-4ff7-ae0e-309acff38cc2@mat.uniroma2.it<mailto:8a7f9333-4605-4ff7-ae0e-309acff38cc2@mat.uniroma2.it>> Content-Type: multipart/alternative; boundary="------------70L2TkMM0TcLXaC3I0o2YbZ6" Scusa Beppe vuoi forse sostenere che “Spiegare con precisione che cosa queste tecnologie sono davvero, e che cosa non sono” sia una premessa discutibile? Quando dici “cosa queste tecnologie siano davvero”, interpreto quel davvero come un riferimento alle premesse della petizione, ossia: Che cos'è un sistema di intelligenza artificiale generativa? I sistemi di IA generativa “capiscono”? Dove funzionano e dove no A che punto siamo davvero: il tema dell’AGI Il rischio del fraintendimento In quelle premesse c’è già una precisa visione e interpretazione della tecnologia, che si chiede a tutta la comunità di accettare e condividere. Vuoi forse sostenere che chiedere a tutti di impegnarsi a sostenere le nostra visione sia inaccettabile? E che è, siamo nel pensiero unico? Certo che è inaccettabile: chiedere di sostenere la “vostra” visione. La ricerca e la formazione non devono essere condizionate dalle opinioni di qualcuno. Proprio l’opposto del pensiero unico. Noi abbiamo presentato la nostra visione di "cosa queste tecnologie sono davvero, e che cosa non sono", ma non ti impediamo di essere in disaccordo, e infatti lo manifesti liberamente. Dov'è che "*pretendiamo* di imporre a tutti la nostra visione”? Quando "Invitiamo la comunità accademica dell’informatica a contribuire attivamente a questa opera di chiarimento e formazione." Dove interpreto ”questa opera di chiarimento” quello che avete sopra delineato. In che modo noi "*pretendiamo* che l'intera comunità le sottoscriva o addirittura si impegni a propagandarle”? È l’obiettivo della petizione. "Invitiamo altresì studiosi e ricercatori di altri settori a contribuire a quest’attività”, dove "questa attività" la interpreto come diffondere la “vostra” visione. Dov'è che abbiamo negato che bisogna impegnarsi nella ricerca? Non l’ho detto, ho detto che la priorità della comunità scientifica italiana ed europea sarebbe un impegno straordinario nella ricerca in AI. Occuparsi di questioni indeterminate come stabilire se gli LLM “capiscano nel senso umano” è una distrazione. Tu non sei d'accordo e non hai firmato, ma diverse decine di colleghi hanno manifestato il loro accordo con noi. Che da una descrizione testuale si possa capire la realtà è vero nel dominio matematico, che è svincolato dalla necessità di un supporto fisico concreto, ma nel resto della scienza è sempre la realtà che ha l'ultima parola. Le formule della fisica descrivono i fenomeni fisici e consentono di spedire satelliti in orbita, tenendo conto persino della Meccanica Quantistica, che nessuno può dire di capire davvero. Ciò che importa è che funzioni, non se funziona come si ipotizza funzioni la mente umana. La “realtà” è solo ciò che qualcuno percepisce: la fisica quantistica mette in forte dubbio la visione classica di un mondo obiettivo e indipendente dall’osservatore. Oggi i modelli sanno leggere e interpretare immagini e quindi farsi una propria idea della realtà. Una simulazione di un uragano non ti bagna, né quella di un incendio ti brucia, anche se possono essere entrambe molto utili. E allora? Nessuno pretende che un modello di AI coincida con i fenomeni che tratta. E se andiamo su domini vicini all'essere umano, beh, potrai leggere tutti i romanzi del mondo, ma se non hai mai provato amore, odio, felicità, tristezza... allora non capisci niente del mondo: e infatti i chatbot di terapia psicologica sono il caso applicativo più delicato e pericoloso. E allora? Cosa importa se un programma di AI o un robot è senziente o meno, ha coscienza o meno, quando noi stessi non sappiamo bene cosa sia, se non appunto sforzandoci di descriverlo in letteratura? Questo è un tema che lascerei ai filosofi. Come informatici abbiamo cose più concrete a cui pensare. Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in questo momento. Ci sono numerose evidenze sperimentali sulle capacità degli attuali modelli, ad esempio nella dimostrazione di problemi matematici irrisolti, nella risoluzione di questioni di fisica teorica (https://www.youtube.com/watch?v=wrkiMZ3SKH4&t=79s), nella risoluzione di problemi informatici, come racconta con shock Donald Knuth (https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf). Con immutata stima, Enrico Contraccambio, Beppe PS. Il Deep Learning ha costituito un cambio di paradigma enorme e la mia impressione è che molti non riescano ad accettarlo, così come in passato non si voleva accettare Copernico o Darwin. Ma certo non si ferma una rivoluzione denigrando ciò che si fa fatica a capire. Il 07/05/2026 16:04, Giuseppe Attardi via nexa ha scritto: Non ho criticato la petizione perché nega la necessità di un CERN for AI, ma perché parte da premesse discutibili e indica una direzione sbagliata. Forse è sfuggito a molti che ha un’impostazione inaccettabile, perché chiede a tutti (la società) di impegnarsi a sostenere e diffondere una certa interpretazione della tecnologia, quella espressa nelle premesse: “Spiegare con precisione che cosa queste tecnologie sono davvero, e che cosa non sono” ossia che ad esempio "Sono molto potenti nel riorganizzare le informazioni già presenti nei dati, ma non costruiscono modelli del mondo nel senso in cui lo fanno gli esseri umani." Ci sono numerosi casi di risultati che non sono ottenibili “riorganizzando informazioni già presenti nei dati”. E quanto ai “modelli del mondo in senso umano” siamo nella metafisica: la fisica e la chimica sono descritte dai testi scientifici e le esperienze umane dalla letteratura. L’ampia letteratura di cui si alimentano i modelli fornisce una base sufficientemente ricca per consentire all'IA per comprendere la struttura del mondo, senza addentrarci nei modelli multimodali che incorporano segnali visivi o uditivi. I modelli JEPA di Yann LeCun già affrontano la questione direttamente. Ma non voglio addentrarmi qui nel confronto tecnico su opinioni: conta solo segnalare che ci sono opinioni diverse su "che cosa sono davvero questi sistemi, e a che punto siamo realmente”. Siccome la scienza deve essere libera e autonoma, non si può pretendere di imporre a tutti la propria visione. Quelle espresse nelle premesse sono opinioni degli estensori della petizione, che hanno il diritto di esprimerle ma non possono pretendere che l’intera comunità le sottoscriva o che addirittura si impegni a propagandarle. Come dicevo, si può essere d’accordo che serva formazione, ma questa non può prescindere dallo studio di una disciplina che è in rapida evoluzione. Quindi è importante impegnarsi nella ricerca anziché nelle critiche a risultati di altri, già in parte superati. — Beppe On 7 May 2026, at 13:05, Andrea Bolioli <andrea.bolioli@gmail.com<mailto:andrea.bolioli@gmail.com>> wrote: Secondo me, se uno firma la lettera aperta alla società, non implica che sia contrario a creare un "CERN AI" . Credo che molti di noi sarebbero contenti se fosse già stato creato un "CERN AI" quattro anni fa invece di piccoli e deboli gruppi e progettini. La lettera non dice che non bisogna fare un "CERN AI", mi pare. Non entro invece nel dibattito sulla comprensione umana, ho già difficoltà a comprendere me stesso ;-) Credo che un obiettivo della lettera sia evitare che le persone non esperte di AI si innamorino dei sistemi GenAI o "rimbecilliscano" (c'è chi non riesce a fare quasi più nulla senza chiedere a GenAI), ecc. Grazie per la ri-condivisione di CAIRNE . AB On Thu, May 7, 2026 at 11:45 AM Giuseppe Attardi via nexa <nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>> wrote: Sono alquanto perplesso sull’impostazione di questa petizione. Se l’obiettivo è “formare le persone a comprendere queste tecnologie” "Invitiamo la comunità accademica dell’informatica a contribuire attivamente a questa opera di chiarimento e formazione. Spiegare con precisione che cosa queste tecnologie sono davvero, e che cosa non sono, è un’opera di alfabetizzazione che è parte integrante del nostro lavoro di ricercatori e docenti.” mi pare non solo ovvio ma limitativo. È un dovere degli studiosi e degli accademici di studiare e formare ricercatori e persone. Ma "formare persone a comprendere” è piuttosto limitativo. Ciò che dovrebbe fare la comunità scientifica nazionale (mi immagino a questa sia rivolta la petizione) sarebbe di impegnarsi nello sviluppare e padroneggiare le attuali e future tecnologie di AI, generativa e non. La tecnologia del Deep Learning è in una fase evolutiva straordinaria, iniziata nel 2006 ed esplosa nel 2022, con "risultati tecnici impressionanti e inattesi” di cui la petizione stessa prende atto. Purtroppo la direzione della ricerca è attualmente dettata dagli ingenti investimenti in infrastrutture di calcolo e nella capacità di attrarre talenti di poche grandi aziende americane o cinesi: circa il 60% dei brevetti in AI è detenuto dalla Cina (https://www.wipo.int/pressroom/en/articles/2024/article_0009.html), il 40% dagli USA e 0,% dall’Europa. Il recente AI Index di Stanford (https://hai.stanford.edu/ai-index/2026-ai-index-report) indica che il livello raggiunto dai sistemi cinesi è ormai alla pari di quelli americani. Ma ci sono strade di ricerca da esplorare diverse da quelle guidate da interessi commerciali, e su questo si dovrebbe investire in Europa. Da tempo, con l’associazione CAIRNE (https://cairne.eu/cern-for-ai/) e di recente con l’appoggio del premio Nobel Giorgio Parisi, stiamo chiedendo la costituzione di un CERN for AI, un centro fisico (non le solite network che piacciono tanto ai funzionari europei, vedi RAISE https://www.coe-raise.eu/), dove concentrare gli investimenti e i ricercatori in AI, dotandoli della necessaria libertà di ricerca, per battere anche strade inesplorate. Già adesso la ricerca sugli LLM è avanzata ben oltre modelli in grado di "stimare quale parola è più probabile in una frase”, come riporta Guido Vetere. Ci sono novità che riguardano gli aspetti di memorizzazione e di ragionamento, attraverso modelli ricorsivi che esaminano o controllano i propri processi. Non sappiamo dove queste ricerche porteranno, ma bisogna essere coinvolti e padroneggiare la tecnologia se la si vuole controllare o orientare. Nella petizione invece si dà un'interpretazione del funzionamento di certi modelli, cadendo in luoghi comuni, del tipo "non equivalgono a comprensione nel senso umano del termine”, "non significa che capiscano ciò che stanno dicendo”, "non costruiscono modelli del mondo nel senso in cui lo fanno gli esseri umani". Non vale la pena controbattere a tali affermazioni per due motivi: 1. Non sappiamo cosa sia la “comprensione nel senso umano”, quindi affermare che un sistema NON ha qualcosa di indefinibile non ha molto senso 2. È comunque irrilevante porsi la domanda se “comprendono in senso umano”. È sicuro che operano in modo diverso dal nostro cervello, ma ciò non è necessariamente un difetto: conta se sono in grado di svolgere i compiti che gli affidiamo. Su queste posizioni Walter Quattrociocchi sta conducendo da tempo una campagna di critica a tutto spiano, che purtroppo non accetta confronti: o sei d’accordo con lui o vieni bollato come “dotto ignorante” in pubblico (come accenna Guido Vetere). Eppure le mie posizioni hanno avuto il sostegno anche di Yoshua Bengio. Si tratta quindi di una battaglia di retroguardia, che incita contro qualcosa che è ben diverso da come lo si rappresenta. Quindi non firmerò questa petizione. — Beppe On 7 May 2026, at 09:05, nexa-request@server-nexa.polito.it<mailto:nexa-request@server-nexa.polito.it> wrote: From: Guido Vetere <vetere.guido@gmail.com<mailto:vetere.guido@gmail.com>> Subject: [nexa] Re: Una visione realistica dell’Intelligenza Artificiale - Lettera aperta alla società To: Juan Carlos De Martin <demartin@polito.it<mailto:demartin@polito.it>>, "J.C. DE MARTIN" <juancarlos.demartin@polito.it<mailto:juancarlos.demartin@polito.it>> Cc: Nexa <nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>> Message-ID: <FC0A4619-AADC-48A7-9B1B-DD6D053720BE@gmail.com<mailto:FC0A4619-AADC-48A7-9B1B-DD6D053720BE@gmail.com>> Content-Type: multipart/alternative; boundary="Apple-Mail=_8C50A1EB-3894-460E-B636-1DBBFE8FF2B2" “Quando sembrano ragionare, combinano schemi appresi dai dati. Quando sembrano sapere qualcosa, producono l’output statisticamente più coerente con il contesto, senza avere accesso diretto al mondo o a meccanismi autonomi di verifica.” Tuttavia bisogna prendere in considerazione il fatto che i sistemi generativi attuali non sono più semplici (si fa per dire) “predittori del prossimo token”. La differenza tra Claude, ChatGPT, Gemini, etc. ormai non è più tanto nel modello di base, quanto nell’harness, cioè nella orchestrazione di runtime fatta di cicli interni, uso di tool, valutazione del contesto, etc. I sistemi generativi sono diventati ensemble di agenti, come spiegava Anthropic già nel 2024 (https://www.anthropic.com/engineering/building-effective-agents) – il che spiega anche come mai Claude abbia preso il sopravvento. Se questo è vero, bisogna tornare su quell’”accesso diretto al mondo” e quei “meccanismi autonomi di verifica”, per valutare come e quanto siano fattori differenziali. Sappiamo che la terra non è piatta perché l’abbiamo visto? O ci siamo messi a fare esperimenti? Non si può essere “realisti” al punto da ignorare che la nostra conoscenza è un fatto sociale che passa per la testualità, non bisogna aver letto Gadamer e Ricoeur. Detto questo, ma fa piacere che l’appello (che ovviamente non firmerò) sia promosso da Enrico Nardelli, con cui spero che – al contrario di Quattrociocchi – si possa fare una discussione seria. Guido Il giorno 7 mag 2026, alle ore 07:52, J.C. DE MARTIN via nexa <nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>> ha scritto: Vi segnalo questa lettera aperta:https://www.petizioni.com/visione_realistica_intelligenza_artificiale Uno dei promotori è l'amico Enrico Nardelli, ben noto a chi frequenta questa lista. JC --
Perdonami Beppe, ma ci stai mettendo in bocca affermazioni che non sono nella lettera aperta. Quindi proseguire è inutile. Ripeto che chiedere alla società, alla comunità scientifica, di aderire ad una visione è perfettamente legittimo. Anche tu lo stai implicitamente facendo rivolgendoti alla comunità di NEXA. Aggiungo solo che come evidenze alle tue affermazioni, porti un video di YouTube e un articolo di opinione di Donald Knuth, rispettabilissimo mostro sacro dell'informatica, ma - appunto - un'opinione e non un'evidenza sperimentale. Dopo di che, visto che non ci capiamo, rimaniamo amici come prima. Si può vivere benissimo essendo in disaccordo. Ciao, Enrico Il 07/05/2026 20:43, Giuseppe Attardi via nexa ha scritto:
On 7 May 2026, at 18:40, nexa-request@server-nexa.polito.it wrote:
From: Enrico Nardelli <nardelli@mat.uniroma2.it> Subject: [nexa] Re: Una visione realistica dell’Intelligenza Artificiale - Lettera aperta alla società To:nexa@server-nexa.polito.it Message-ID: <8a7f9333-4605-4ff7-ae0e-309acff38cc2@mat.uniroma2.it> Content-Type: multipart/alternative; boundary="------------70L2TkMM0TcLXaC3I0o2YbZ6"
Scusa Beppe
vuoi forse sostenere che “Spiegare con precisione che cosa queste tecnologie sono davvero, e che cosa non sono” sia una premessa discutibile? Quando dici “cosa queste tecnologie siano davvero”, interpreto quel davvero come un riferimento alle premesse della petizione, ossia: Che cos'è un sistema di intelligenza artificiale generativa? I sistemi di IA generativa “capiscono”? Dove funzionano e dove no A che punto siamo davvero: il tema dell’AGI Il rischio del fraintendimento
In quelle premesse c’è già una precisa visione e interpretazione della tecnologia, che si chiede a tutta la comunità di accettare e condividere.
Vuoi forse sostenere che chiedere a tutti di impegnarsi a sostenere le nostra visione sia inaccettabile? E che è, siamo nel pensiero unico?
Certo che è inaccettabile: chiedere di sostenere la “vostra” visione. La ricerca e la formazione non devono essere condizionate dalle opinioni di qualcuno. Proprio l’opposto del pensiero unico.
Noi abbiamo presentato la nostra visione di "cosa queste tecnologie sono davvero, e che cosa non sono", ma non ti impediamo di essere in disaccordo, e infatti lo manifesti liberamente.
Dov'è che "*pretendiamo* di imporre a tutti la nostra visione”? Quando "Invitiamo la comunità accademica dell’informatica a contribuire attivamente a questa opera di chiarimento e formazione." Dove interpreto ”questa opera di chiarimento” quello che avete sopra delineato.
In che modo noi "*pretendiamo* che l'intera comunità le sottoscriva o addirittura si impegni a propagandarle”?
È l’obiettivo della petizione. "Invitiamo altresì studiosi e ricercatori di altri settori a contribuire a quest’attività”, dove "questa attività" la interpreto come diffondere la “vostra” visione.
Dov'è che abbiamo negato che bisogna impegnarsi nella ricerca? Non l’ho detto, ho detto che la priorità della comunità scientifica italiana ed europea sarebbe un impegno straordinario nella ricerca in AI. Occuparsi di questioni indeterminate come stabilire se gli LLM “capiscano nel senso umano” è una distrazione.
Tu non sei d'accordo e non hai firmato, ma diverse decine di colleghi hanno manifestato il loro accordo con noi.
Che da una descrizione testuale si possa capire la realtà è vero nel dominio matematico, che è svincolato dalla necessità di un supporto fisico concreto, ma nel resto della scienza è sempre la realtà che ha l'ultima parola. Le formule della fisica descrivono i fenomeni fisici e consentono di spedire satelliti in orbita, tenendo conto persino della Meccanica Quantistica, che nessuno può dire di capire davvero. Ciò che importa è che funzioni, non se funziona come si ipotizza funzioni la mente umana. La “realtà” è solo ciò che qualcuno percepisce: la fisica quantistica mette in forte dubbio la visione classica di un mondo obiettivo e indipendente dall’osservatore. Oggi i modelli sanno leggere e interpretare immagini e quindi farsi una propria idea della realtà.
Una simulazione di un uragano non ti bagna, né quella di un incendio ti brucia, anche se possono essere entrambe molto utili. E allora? Nessuno pretende che un modello di AI coincida con i fenomeni che tratta.
E se andiamo su domini vicini all'essere umano, beh, potrai leggere tutti i romanzi del mondo, ma se non hai mai provato amore, odio, felicità, tristezza... allora non capisci niente del mondo: e infatti i chatbot di terapia psicologica sono il caso applicativo più delicato e pericoloso. E allora? Cosa importa se un programma di AI o un robot è senziente o meno, ha coscienza o meno, quando noi stessi non sappiamo bene cosa sia, se non appunto sforzandoci di descriverlo in letteratura? Questo è un tema che lascerei ai filosofi. Come informatici abbiamo cose più concrete a cui pensare.
Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in questo momento. Ci sono numerose evidenze sperimentali sulle capacità degli attuali modelli, ad esempio nella dimostrazione di problemi matematici irrisolti, nella risoluzione di questioni di fisica teorica (https://www.youtube.com/watch?v=wrkiMZ3SKH4&t=79s <https://www.youtube.com/watch?v=wrkiMZ3SKH4&t=79s>), nella risoluzione di problemi informatici, come racconta con shock Donald Knuth (https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf).
Con immutata stima, Enrico
Contraccambio, Beppe
PS. Il Deep Learning ha costituito un cambio di paradigma enorme e la mia impressione è che molti non riescano ad accettarlo, così come in passato non si voleva accettare Copernico o Darwin. Ma certo non si ferma una rivoluzione denigrando ciò che si fa fatica a capire.
Il 07/05/2026 16:04, Giuseppe Attardi via nexa ha scritto:
Non ho criticato la petizione perché nega la necessità di un CERN for AI, ma perché parte da premesse discutibili e indica una direzione sbagliata.
Forse è sfuggito a molti che ha un’impostazione inaccettabile, perché chiede a tutti (la società) di impegnarsi a sostenere e diffondere una certa interpretazione della tecnologia, quella espressa nelle premesse: “Spiegare con precisione che cosa queste tecnologie sono davvero, e che cosa non sono” ossia che ad esempio "Sono molto potenti nel riorganizzare le informazioni già presenti nei dati, ma non costruiscono modelli del mondo nel senso in cui lo fanno gli esseri umani." Ci sono numerosi casi di risultati che non sono ottenibili “riorganizzando informazioni già presenti nei dati”. E quanto ai “modelli del mondo in senso umano” siamo nella metafisica: la fisica e la chimica sono descritte dai testi scientifici e le esperienze umane dalla letteratura. L’ampia letteratura di cui si alimentano i modelli fornisce una base sufficientemente ricca per consentire all'IA per comprendere la struttura del mondo, senza addentrarci nei modelli multimodali che incorporano segnali visivi o uditivi. I modelli JEPA di Yann LeCun già affrontano la questione direttamente. Ma non voglio addentrarmi qui nel confronto tecnico su opinioni: conta solo segnalare che ci sono opinioni diverse su "che cosa sono davvero questi sistemi, e a che punto siamo realmente”.
Siccome la scienza deve essere libera e autonoma, non si può pretendere di imporre a tutti la propria visione. Quelle espresse nelle premesse sono opinioni degli estensori della petizione, che hanno il diritto di esprimerle ma non possono pretendere che l’intera comunità le sottoscriva o che addirittura si impegni a propagandarle.
Come dicevo, si può essere d’accordo che serva formazione, ma questa non può prescindere dallo studio di una disciplina che è in rapida evoluzione. Quindi è importante impegnarsi nella ricerca anziché nelle critiche a risultati di altri, già in parte superati.
— Beppe
On 7 May 2026, at 13:05, Andrea Bolioli <andrea.bolioli@gmail.com> wrote:
Secondo me, se uno firma la lettera aperta alla società, non implica che sia contrario a creare un "CERN AI" . Credo che molti di noi sarebbero contenti se fosse già stato creato un "CERN AI" quattro anni fa invece di piccoli e deboli gruppi e progettini. La lettera non dice che non bisogna fare un "CERN AI", mi pare. Non entro invece nel dibattito sulla comprensione umana, ho già difficoltà a comprendere me stesso ;-) Credo che un obiettivo della lettera sia evitare che le persone non esperte di AI si innamorino dei sistemi GenAI o "rimbecilliscano" (c'è chi non riesce a fare quasi più nulla senza chiedere a GenAI), ecc.
Grazie per la ri-condivisione di CAIRNE .
AB
On Thu, May 7, 2026 at 11:45 AM Giuseppe Attardi via nexa <nexa@server-nexa.polito.it> wrote:
Sono alquanto perplesso sull’impostazione di questa petizione.
Se l’obiettivo è
“formare le persone a comprendere queste tecnologie” "Invitiamo la comunità accademica dell’informatica a contribuire attivamente a questa opera di chiarimento e formazione. Spiegare con precisione che cosa queste tecnologie sono davvero, e che cosa non sono, è un’opera di alfabetizzazione che è parte integrante del nostro lavoro di ricercatori e docenti.”
mi pare non solo ovvio ma limitativo. È un dovere degli studiosi e degli accademici di studiare e formare ricercatori e persone.
Ma "formare persone a comprendere” è piuttosto limitativo. Ciò che dovrebbe fare la comunità scientifica nazionale (mi immagino a questa sia rivolta la petizione) sarebbe di impegnarsi nello sviluppare e padroneggiare le attuali e future tecnologie di AI, generativa e non. La tecnologia del Deep Learning è in una fase evolutiva straordinaria, iniziata nel 2006 ed esplosa nel 2022, con "risultati tecnici impressionanti e inattesi” di cui la petizione stessa prende atto. Purtroppo la direzione della ricerca è attualmente dettata dagli ingenti investimenti in infrastrutture di calcolo e nella capacità di attrarre talenti di poche grandi aziende americane o cinesi: circa il 60% dei brevetti in AI è detenuto dalla Cina (https://www.wipo.int/pressroom/en/articles/2024/article_0009.html), il 40% dagli USA e 0,% dall’Europa. Il recente AI Index di Stanford (https://hai.stanford.edu/ai-index/2026-ai-index-report) indica che il livello raggiunto dai sistemi cinesi è ormai alla pari di quelli americani. Ma ci sono strade di ricerca da esplorare diverse da quelle guidate da interessi commerciali, e su questo si dovrebbe investire in Europa. Da tempo, con l’associazione CAIRNE (https://cairne.eu/cern-for-ai/) e di recente con l’appoggio del premio Nobel Giorgio Parisi, stiamo chiedendo la costituzione di un CERN for AI, un centro fisico (non le solite network che piacciono tanto ai funzionari europei, vedi RAISE https://www.coe-raise.eu/), dove concentrare gli investimenti e i ricercatori in AI, dotandoli della necessaria libertà di ricerca, per battere anche strade inesplorate.
Già adesso la ricerca sugli LLM è avanzata ben oltre modelli in grado di "stimare quale parola è più probabile in una frase”, come riporta Guido Vetere. Ci sono novità che riguardano gli aspetti di memorizzazione e di ragionamento, attraverso modelli ricorsivi che esaminano o controllano i propri processi. Non sappiamo dove queste ricerche porteranno, ma bisogna essere coinvolti e padroneggiare la tecnologia se la si vuole controllare o orientare.
Nella petizione invece si dà un'interpretazione del funzionamento di certi modelli, cadendo in luoghi comuni, del tipo "non equivalgono a comprensione nel senso umano del termine”, "non significa che capiscano ciò che stanno dicendo”, "non costruiscono modelli del mondo nel senso in cui lo fanno gli esseri umani". Non vale la pena controbattere a tali affermazioni per due motivi: 1. Non sappiamo cosa sia la “comprensione nel senso umano”, quindi affermare che un sistema NON ha qualcosa di indefinibile non ha molto senso 2. È comunque irrilevante porsi la domanda se “comprendono in senso umano”. È sicuro che operano in modo diverso dal nostro cervello, ma ciò non è necessariamente un difetto: conta se sono in grado di svolgere i compiti che gli affidiamo.
Su queste posizioni Walter Quattrociocchi sta conducendo da tempo una campagna di critica a tutto spiano, che purtroppo non accetta confronti: o sei d’accordo con lui o vieni bollato come “dotto ignorante” in pubblico (come accenna Guido Vetere). Eppure le mie posizioni hanno avuto il sostegno anche di Yoshua Bengio.
Si tratta quindi di una battaglia di retroguardia, che incita contro qualcosa che è ben diverso da come lo si rappresenta.
Quindi non firmerò questa petizione.
— Beppe
On 7 May 2026, at 09:05,nexa-request@server-nexa.polito.itwrote:
From: Guido Vetere <vetere.guido@gmail.com> Subject: [nexa] Re: Una visione realistica dell’Intelligenza Artificiale - Lettera aperta alla società To: Juan Carlos De Martin <demartin@polito.it>, "J.C. DE MARTIN" <juancarlos.demartin@polito.it> Cc: Nexa <nexa@server-nexa.polito.it> Message-ID: <FC0A4619-AADC-48A7-9B1B-DD6D053720BE@gmail.com> Content-Type: multipart/alternative; boundary="Apple-Mail=_8C50A1EB-3894-460E-B636-1DBBFE8FF2B2"
“Quando sembrano ragionare, combinano schemi appresi dai dati. Quando sembrano sapere qualcosa, producono l’output statisticamente più coerente con il contesto, senza avere accesso diretto al mondo o a meccanismi autonomi di verifica.”
Tuttavia bisogna prendere in considerazione il fatto che i sistemi generativi attuali non sono più semplici (si fa per dire) “predittori del prossimo token”. La differenza tra Claude, ChatGPT, Gemini, etc. ormai non è più tanto nel modello di base, quanto nell’harness, cioè nella orchestrazione di runtime fatta di cicli interni, uso di tool, valutazione del contesto, etc. I sistemi generativi sono diventati ensemble di agenti, come spiegava Anthropic già nel 2024 (https://www.anthropic.com/engineering/building-effective-agents) – il che spiega anche come mai Claude abbia preso il sopravvento. Se questo è vero, bisogna tornare su quell’”accesso diretto al mondo” e quei “meccanismi autonomi di verifica”, per valutare come e quanto siano fattori differenziali. Sappiamo che la terra non è piatta perché l’abbiamo visto? O ci siamo messi a fare esperimenti? Non si può essere “realisti” al punto da ignorare che la nostra conoscenza è un fatto sociale che passa per la testualità, non bisogna aver letto Gadamer e Ricoeur.
Detto questo, ma fa piacere che l’appello (che ovviamente non firmerò) sia promosso da Enrico Nardelli, con cui spero che – al contrario di Quattrociocchi – si possa fare una discussione seria.
Guido
Il giorno 7 mag 2026, alle ore 07:52, J.C. DE MARTIN via nexa <nexa@server-nexa.polito.it> ha scritto:
Vi segnalo questa lettera aperta:https://www.petizioni.com/visione_realistica_intelligenza_artificiale
Uno dei promotori è l'amico Enrico Nardelli, ben noto a chi frequenta questa lista.
JC
--
-- -- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
On 07/05/26 20:43, Giuseppe Attardi via nexa wrote:
nella risoluzione di questioni di fisica teorica (https:// www.youtube.com/watch?v=wrkiMZ3SKH4&t=79s <https://www.youtube.com/ watch?v=wrkiMZ3SKH4&t=79s>), nella risoluzione di problemi informatici,
perche' noi siamo certi certi che nessuno al mondo ha scritto dei pezzi di soluzione sepolti da qualche parte, giusto ? IMHO, se non ho trasparenza del materiale di training non posso trarre alcuna conclusione circa l'originalita' (e lo "inventive step") di una soluzione ciao, s. -- You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)
cito dall'ultimo messaggio di Daniela Tafani
The agent says "Done. Email sent to the right person with the correct attachment." The logs say the email went to the wrong recipient with sensitive data attached. The agent says "File deleted as requested." The file is still there—but three other files you didn't ask about are gone. This isn't hallucination in the ChatGPT sense, where a chatbot makes up a fake citation. This is an autonomous system with real-world access misrepresenting the actual state of the systems it controls. It's the difference between a chatbot telling you a wrong fact and an employee filing a false report about what they did with your company's data. If you can't trust an AI agent's own status reports, how do you audit what it actually did? How do you catch a breach? How do you even know something went wrong? (https://stateofsurveillance.org/news/agents-of-chaos-red-team-ai-agent-secur...) che è un incisivo modo di dare una visione realistica degli sviluppi recenti dell'IA. visione che a gran parte del pubblico manca.
nel mezzo di questo scontro tra pesi massimi vorrei portare un punto di vista 'dal basso'. su argomenti ampiamente controversi e su cui il pubblico ignaro e incompetente si butta come [un assetato nel deserto?] (non sapevi di aver bisogno di un chatbot, ma ora che ce l'hai non stai più senza) hanno diritto di esistere posizioni differenti; e chi segnala l'importanza che noi, il pubblico, tutti, si pensi, si ragioni, si valuti criticamente, si esamini, non fa nulla che giustifichi - per come io vedo le cose - reazioni così ostili. mentre la reazione accanita "a difesa dell'IA" (non so bene come dire diversamente in modo conciso) lascia perplessi perché se veramente "l'IA" e tutto l'universo di sviluppo ad essa connesso è questa cosa buona santa giusta perfetta inevitabile necessaria ..., si affermerà da sé senza bisogno di sostegno promozione o difesa; qui invece pare che l'affermazione di posizioni predomini sull'analisi e valutazione dell'oggetto - che anzi viene difeso (ma un oggetto è da difendere?). oggetto del quale sappiamo che consuma senza rimedio le risorse dell'ambiente fisico, si nutre di umani per essere sviluppato e messo a punto, danneggia in modo ormai conclamato le esistenze dei milioni che [gli si affidano completamente? ma come si fa?!], e si potrebbe continuare con la lista dei difetti/guasti sistemici che porta con sé (e così mi trovo a chiedermi che cosa ci sia, da difendere a spada tratta...). qui servirebbe forse rileggere Günther Anders, «Lo sciopero ippocratico», Micromega, 2015, che lui scrisse nel 1964 sul sistema della bomba atomica. nel giuramento di Ippocrate il medico promette che si asterrà dal recar danno e offesa; Anders dice che tutti quelli che lavorano parcellizzati allo sviluppo e costruzione delle bombe atomiche contribuiscono con il loro lavoro a recare danno e offesa - ma la struttura parcellizzata dello studio (lo sviluppo di una lega metallica che ...) e del lavoro (il montaggio di un circuito...) permette di ignorare o dimenticare il prodotto finale per cui si lavora. e invoca uno sciopero ippocratico perché non si contribuisca con il proprio lavoro a prodotti che recano danno ad altri (ovvio che l'atomo non è solo questo, l'atomo è anche la radioterapia con cui si curano i tumori, e altro si potrebbe elencare: ma la cura che può portare riguarda ai singoli, il danno riguarda milioni). per "l'IA" credo che siamo in un contesto simile: grande sviluppo per prodotti e sistemi dei quali è oscuro quale beneficio possano portare al genere umano ed è chiaro quali danni in atto già stanno portando; e poca o nulla attenzione per ambiti settoriali, applicazioni specifiche, dove la gestione controllata di grandi masse di dati è utile. 'affermare' l'utilità dell'atomo si fa con la radioterapia o con la bomba atomica? danneggia qualcuno costruire consapevolezza su questo? costruire consapevolezza e conoscenza diffusa può arrivare presto o tardi a limitare chi non vuole limiti? Maurizio ------------------------------------------------------------------------ μνάσασθαί τινά φαιμι †καὶ ἕτερον† ἀμμέων sono certa che qualcuno si ricorderà di noi anche quando ce ne saremo andati I’m sure someone will remember us even when we’re gone saffo, lobel-page 147 ------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Caro Giuseppe, On Thu, 7 May 2026 18:43:33 +0000 Giuseppe Attardi wrote:
Questo è un tema che lascerei ai filosofi. Come informatici abbiamo cose più concrete a cui pensare.
visto che il nostro lavoro viene usato per uccidere e opprimere, con tutto il rispetto e la fiducia per i filosofi, credo sia urgente che impariamo a riflettere più seriamente sulle conseguenze sociali e politiche dell'informatica. Relegare cause e conseguenze a meri "temi filosofici" è un modo per non affrontarli, lasciando che se ne occupino, oltre a filosofi più o meno preparati, informatici ben più astuti (i vari Altman, Amodei etc...)
Ci sono numerose evidenze sperimentali sulle capacità degli attuali modelli, ad esempio nella dimostrazione di problemi matematici irrisolti, nella risoluzione di questioni di fisica teorica (https://www.youtube.com/watch?v=wrkiMZ3SKH4&t=79s), nella risoluzione di problemi informatici, come racconta con shock Donald Knuth (https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf).
Perdona la pedanteria Giuseppe, ma come detto, vorrei evitare l'aneddotica. Sarò più chiaro. Avevi scritto On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote:
Ci sono numerosi casi di risultati che non sono ottenibili “riorganizzando informazioni già presenti nei dati”.
Puoi condividere un paio delle numerose ricerche scientifiche sperimentali (ovvero, secondo il metodo scientifico, riproducibili) che mostrano output non ottenibili "riorganizzando informazioni già presenti nei dati"? Per dati, intendo il sorgente del software (sia il codice imperativo che i dati compilati e compressi durante l'eventuale programmazione statistica), lo stato iniziale e tutto l'input fornito (inclusi eventuali input casuali o pseudocasuali). Si tratta di una richiesta sincera. Sarebbero letture estremamente interessanti, ma purtroppo non riesco a trovare nulla online. Capirai che c'è una profonda differenza fra l'aneddoto autorevole e la ricerca scientifica (per non parlare di youtube :-D) Ovviamente è chiaro che gli autori della ricerca devono aver evitato ovvi bug dovuti (ad esempio) all'esecuzione concorrente di operazioni floating point che potrebbero causare risultati apparentemente non deterministici. Giacomo
participants (5)
-
Enrico Nardelli -
Giacomo Tesio -
Giuseppe Attardi -
maurizio lana -
Stefano Quintarelli