Ciao Stefano Il 11 Maggio 2026 04:22:29 UTC, Stefano Borroni Barale ha scritto:
ti rispondo perché in questo messaggio scarti (secondo me entrando in contraddizione con te stesso) un argomento che, a mio parere, è uno dei potenziali pilastri della critica all'allucinazione collettiva che porta a identificare umani e macchine.
Ammetto di aver riletto diverse volte il mio messaggio cercando di capire quale passaggio ti sembrasse in contraddizione con quello che hai definito "pilastro epistemologico". Ahimé ho fallito: sono assolutamente d'accordo con quanto hai scritto, e non mi pare di aver in alcun modo confrontato (o ancor meno identificato) "due fenomeni che si presentano in due sistemi di complessità differenti che non hanno nulla in comune". Ho cercato, al contrario, di spiegare la differenza ontologica fra i due fenomeni che altri descrivono con gli stessi termini con l'intenzione di confonderli (Anthropic, OpenAI, Google...) o l'ambizione di conformarli (ad esempio ricercatori in assoluta buona fede come Giuseppe Attardi). Mentre io, se ci fai caso, evito di descrivere come "fenomeno linguistico", "risposte" "codice" etc... l'output di software programmati statisticamente. [1] Forse può essere utile leggere la mail che hai citato accanto alle altre che ho inviato ieri sera (in particolare la risposta a Giuseppe ed Enrico in cui propongo una definizione operativa di "senso delle parole"). Ti chiederei quindi di indicarmi quale passaggio abbia prodotto nella tua mente un'informazione in contrasto con il "pilastro epistemologico" che hai descritto in modo che io possa chiarirlo ulteriormente (se ancora necessario). Credo invece di aver individuato il passaggio che trovi in contraddizione con quello che chiami "pilastro ontologico", ovvero
Non rileva molto, in realtà, che tali informazioni siano o meno derivate da esperienze sensibili (non concordo particolarmente con Enrico sulla rilevanza dell'esperienza corporea nel contesto delle "intelligenze artificiali", anche perché non è difficile collegare a questi software sensori e attuatori).
Pur concordando con ciò che scrivi descrivendo il "pilastro ontologico", non lo ritengo affatto un pilastro della critica alla favola della "intelligenza artificiale". Lo considero al più un puntello malfermo che, in assenza di fondamenta più solide (quali ad esempio la definizione di informazione come esperienza soggettiva di pensiero comunicabile, la sua distinzione dal dato quale rappresentazione interpretabile impressa su ub supporto trasferibile, etc), viene proposta da intellettuali ben intenzionati nella speranza di sostenere l'umanità dall'attacco che sta subendo. Purtroppo rimane un puntello malfermo. Perché? Vi sono varie ragioni, alcune delle quali hai riportato tu stesso nel passaggio sul "pilastro epistemologico". Elencarle sistematicamente richiederebbe, ahimé più tempo di quanto disponga in questo momento, ma posso citarne alcune (senza alcun ordine significativo). Ad esempio è ridicolo sostenere che, ad esempio, le "intelligenze artificiali" di Google non siano connesse ad un numero di sensori mostruosamente superiore a qualsiasi essere vivente sul pianeta. Elencarli tutti ci deprimerebbe (Google Analytics su miliardi di siti web, GMail per miliardi di persone, GMaps su miliardi di smartphone etc etc etc). Se la questione fosse semplicemente l'accesso al mondo fisico, Google avrebbe prodotto un'AGI già anni fa (e non che non ci abbia provato con risorse economiche e tecnologiche senza precedenti nella storia dell'umanità). Ma non basta. Se anche in un diabolico atto di superbia, Musk, Altman o Amodei decidessero di "donare il proprio corpo alla scienza" [2] e facessero sostituire il proprio encefalo con un innovativo sistema in grado di recepire tutti i segnali entranti dal sistema nervoso, codificarli in alta definizione, trasferirli ad un datacenter centinaia di volte più potente (e più inquinante) di quelli disponibili attualmente, riceverne un output e ricodificarlo in segnali trasmissibili dal midollo spinale, ciò che otterrebbero non sarebbe un'intelligenza pensante. Ovvero, se anche connettessero un corpo umano a questi software programmabili statisticamente non riuscirebbero che a simulare ciò che caratterizza la nostra specie. Perché? Per la semplice ragione che un sistema complesso non è computabile, mentre l'output di quell'ipotetico mega data center lo è (tanto da essere computato). Per argomentare che quel software esibisce intelligenza, bisognerebbe sostenere che la realtà stessa non è un sistema complesso ed è dunque essa stessa computabile. Perché è la realtà ad aver esibito i comportamenti emergenti che noi umani classifichiamo come vita ed intelligenza. Ipotesi che al momento la meccanica quantistica esclude. Ciò che può fare un software è solo simulare la realtà. Per questo "intelligenza artificiale" è e rimarrà sempre un ossimoro. Giacomo [1] potrei al contrario definire in questi termini l'output di un software programmato esplicitamente, da un banale "Hello World!" ad una dichiarazione d'amore espressa come video game. La differenza ontologica non è nel contenuto del messaggio, ma nella presenza di un significato. [2] o, più realisticamente, di sfuttare qualche povero disperato promettendogli chissà quale ricompensa eterna Il 11 Maggio 2026 04:22:29 UTC, Stefano Borroni Barale via nexa <nexa@server-nexa.polito.it> ha scritto:
Ciao Giacomo,
ti rispondo perché in questo messaggio scarti (secondo me entrando in contraddizione con te stesso) un argomento che, a mio parere, è uno dei potenziali pilastri della critica all'allucinazione collettiva che porta a identificare umani e macchine. Preciso: non a creare metafore o parallelismi, bensì a identificare come in "I am a stochastic parrot, too!" (S. Altman).
I due pilastri, secondo me, sono:
1. Pilastro epistemologico: identificare due fenomeni che si presentano in due sistemi di complessità differenti che non hanno nulla in comune è, semplicemente, "cargo cult science" (Feynman). A ciascuno la sua fede su cosa sia superiore o meno (c'è libertà di culto, oltre che di pensiero, finché vige ancora la Costituzione), ma quello che è innegabile è che macchine e umani sono profondamente differenti.
Gli esseri umani sono basati sul carbonio e sono viventi: nascono, crescono, si riproducono, invecchiano, muoiono e producono un flusso di coscienza praticamente ininterrotto anche nel sonno. Le macchine sono basate su metalli e silicio: non nascono, non crescono, non invecchiano (si consumano, ma possono essere ripristinate), non muoiono. Al massimo vengono dismesse. Ovviamente producono output solo se appositamente sollecitate (il famoso prompt) e questo è molto differente da un flusso di coscienza. A uno sguardo un pelino più approfondito di quello di McCulloch-Pitts, direi che quello che salta all'occhio son più differenze che similitudini.
Pertanto, identificare le risposte di un umano con l'output di un LLM è semplicemente un errore grossolano o, se preferiamo, lavorare "in approssimazione di studente sferico" (comefacevo da studente a fisica tanti anni fa)e per questo stesso motivo l'accusa di "anthropocentric bias", che Silicon Valley scaglia contro chi insiste nel sottolineare la differenza è ridicola.
Una dimostrazione scientifica dell'identità dei due fenomeni richiederebbe tanti di quei passi che mi viene il mal di capa anche solo a immaginarla. Ovviamente tra questi ci sarebbe definire "risposta", "coscienza", "pensare", "intelligenza": oltre il 50% dei termini bollati da Marvin Minsky stesso come "parole con la valigia" [1], che lui pensava allontanassero dalla soluzione del problema. Questo, intendiamoci bene, è un problema di chi sostiene l'identità, non di chi la rifiuta. Chiunque mastichi il metodo scientifico sa che l'onere della prova cade in capo al proponente di una nuova teoria o intuizione, che pertanto resta falsa fino a che non vi sono sufficienti evidenze del contrario (es. misurazioni di Hubble l'universo in espansione, lavoro di Sir Eddington per la relatività).
Ovviamente questo non impedisce di riconoscere dei parallelismi o delle metafore e sfruttarle per comprendere alcuni sotto-meccanismi e non certo l'intero fenomeno, come volevano fare i cibernetici. Ma lo stesso Von Neumann rigetta l'idea dell'identificazione in una lettera a Wiener e McCulloch a cavallo tra i tardi '40 e i primi '50 (ora la memoria non mi aiuta), sostenendo che il cervello è troppo complesso come modello a cui ispirarsi per i nascendi computer, meglio pensare a un modello più semplice.
2. Pilastro ontologico: la natura di viventi in generale e degli esseri umani in particolare rende l'esperienza della vita situata. La conoscenza umana è anch'essa è situata, in quanto parte dell'esperienza dell'essere vivi. Lo stesso vale per il segno che quella conoscenza vorrebbe trasmettere - come hai ben descritto. Insomma, è necessario avere un corpo per poter fare esperienza delle cose che rendono umani.
I sensori di un agente cibernetico automatico sono giocattoli rispetto agli organi di senso umano (di nuovo, Von Neumann dixit o, se preferisci, Frederick Von Frankensteen in "Young Frankenstein" di Mel Brooks :-D: il concetto non cambia). Il cervello dei viventi, poi, è il risultato di milioni di anni di evoluzione e tentativi successivi, lungo innumerevoli generazioni. Le "reti neurali artificiali" non hanno nemmeno cent'anni. Pensare che noi avremmo fatto in cent'anni meglio di quanto fatto dalla natura in milioni, quello si è suprematismo antropocentrico. "Cala trinchetto" diceva mio nonno. Ovviamente non è un ragionamento quantitativo, ma qualitativo, ma tu dovresti riconoscerti facilmente nell'incedere tipico della cibernetica.
Per tutto il resto concordiamo, ma questo lo sapevi già. :-)
Stefano
[1] https://www.edge.org/conversation/marvin_minsky-consciousness-is-a-big-suitc...
Il 10/05/26 22:18, Giacomo Tesio via nexa ha scritto:
Caro Andrea,
On Fri, 8 May 2026 15:39:22 +0200 Andrea Bolioli wrote:
eh, sono in parte d'accordo con te Giacomo, ma se entriamo nel tema "semantica" non ne usciamo più... :-)
per quanto stretta e scomoda, è una strada necessaria.
La mail che stai leggendo è una rappresentazione simbolica di un'informazione nella mia mente: un'esperienza soggettiva di pensiero comunicabile che cerco di esprimere e trasmetterti perché tu ne possa vedere i simboli ed interpretarli, riproducendo tale esperienza nella tua mente. [1]
Le parole di questa mail sono legate da relazioni semantiche: ogni parola viene scelta per contribuire alla trasmissione delle informazioni nella mia mente che intendo trasmettere.
Non rileva molto, in realtà, che tali informazioni siano o meno derivate da esperienze sensibili (non concordo particolarmente con Enrico sulla rilevanza dell'esperienza corporea nel contesto delle "intelligenze artificiali", anche perché non è difficile collegare a questi software sensori e attuatori).
Molto più rilevante è la relazione fra l'informazione nella mia mente (l'esperienza di pensiero comunicabile che intendo comunicare) e le parole che scelgo, in modo auspicabilmente adeguato, per trasmetterla.
L'output di un LLM invece non ha alcun significato.
I token estrati dal modello a partire dal prompt non sono legati da relazioni semantiche, ma statistiche. [2]
Nessuna mente sta cercando di esprimere l'esperienza soggettiva di un pensiero comunicabile. I processi di attivazione degli strati finali della vector mapping machine (impropriamente detta "rete neurale arficiale") sono "difficili da interpretare" (per usare le parole di Giuseppe Attardi) semplicemente perché non hanno alcun significato intrinseco [3] e dunque non c'è nulla da interpretare.
Il problema fondamentale è che chi non comprende il funzionamento di questi software attribuisce un significato al loro output, attribuendo alle parole relazioni semantiche invece che statistiche.
Se usi un LLM come archivio compresso con perdita, può essere utile. Ad esempio, puoi estrarre da Claude o da Copilot il codice dei tuoi concorrenti che lo usano (fornendo loro in cambio accesso al tuo). O puoi ottenere lorem ipsum a tema per il prototipo del sito web di un cliente per praticamente qualsiasi ambito commerciale.
Ma se lo confondi con un interlocutore, con un "AI peer programmer" (vedi marketing di GitHub CopyALot o Claude), sei vittima di un inganno.
Giacomo
[1] Infatti, contrariamente ad un protocollo software che permette il trasferimento (più propriamente, la copia) di un dato fra dispositivi diversi, il linguaggio non determina una trasferimento di informazione (che essendo esperienza soggettiva, non lascia mai la mente di chi la esperisce) ma solo una sincronizzazione, parziale e inesatta, fra menti umane. https://encrypted.tesio.it/2019/06/03/what-is-informatics.html#a-complex-rel... [2] nota polemica: _statistiche_, non _probabilistiche_ perché i numeri prodotti a valle delle varie trasformazioni non lineari e delle normalizzazioni calcolate durante l'esecuzione del LLM sul "motore inferenziale" non sono più interpretabili matematicamente come probabilità.
[3] così come non ne hanno i livelli iniziali, sebbene sia possibile ricondurre determinati pattern di attivazione a pattern particolarmente frequenti nel testo, come sono, ovviamente, le strutture grammaticali di una lingua.