Ciao Giacomo, ti rispondo perché in questo messaggio scarti (secondo me entrando in contraddizione con te stesso) un argomento che, a mio parere, è uno dei potenziali pilastri della critica all'allucinazione collettiva che porta a identificare umani e macchine. Preciso: non a creare metafore o parallelismi, bensì a identificare come in "I am a stochastic parrot, too!" (S. Altman). I due pilastri, secondo me, sono: 1. Pilastro epistemologico: identificare due fenomeni che si presentano in due sistemi di complessità differenti che non hanno nulla in comune è, semplicemente, "cargo cult science" (Feynman). A ciascuno la sua fede su cosa sia superiore o meno (c'è libertà di culto, oltre che di pensiero, finché vige ancora la Costituzione), ma quello che è innegabile è che macchine e umani sono profondamente differenti. Gli esseri umani sono basati sul carbonio e sono viventi: nascono, crescono, si riproducono, invecchiano, muoiono e producono un flusso di coscienza praticamente ininterrotto anche nel sonno. Le macchine sono basate su metalli e silicio: non nascono, non crescono, non invecchiano (si consumano, ma possono essere ripristinate), non muoiono. Al massimo vengono dismesse. Ovviamente producono output solo se appositamente sollecitate (il famoso prompt) e questo è molto differente da un flusso di coscienza. A uno sguardo un pelino più approfondito di quello di McCulloch-Pitts, direi che quello che salta all'occhio son più differenze che similitudini. Pertanto, identificare le risposte di un umano con l'output di un LLM è semplicemente un errore grossolano o, se preferiamo, lavorare "in approssimazione di studente sferico" (comefacevo da studente a fisica tanti anni fa)e per questo stesso motivo l'accusa di "anthropocentric bias", che Silicon Valley scaglia contro chi insiste nel sottolineare la differenza è ridicola. Una dimostrazione scientifica dell'identità dei due fenomeni richiederebbe tanti di quei passi che mi viene il mal di capa anche solo a immaginarla. Ovviamente tra questi ci sarebbe definire "risposta", "coscienza", "pensare", "intelligenza": oltre il 50% dei termini bollati da Marvin Minsky stesso come "parole con la valigia" [1], che lui pensava allontanassero dalla soluzione del problema. Questo, intendiamoci bene, è un problema di chi sostiene l'identità, non di chi la rifiuta. Chiunque mastichi il metodo scientifico sa che l'onere della prova cade in capo al proponente di una nuova teoria o intuizione, che pertanto resta falsa fino a che non vi sono sufficienti evidenze del contrario (es. misurazioni di Hubble l'universo in espansione, lavoro di Sir Eddington per la relatività). Ovviamente questo non impedisce di riconoscere dei parallelismi o delle metafore e sfruttarle per comprendere alcuni sotto-meccanismi e non certo l'intero fenomeno, come volevano fare i cibernetici. Ma lo stesso Von Neumann rigetta l'idea dell'identificazione in una lettera a Wiener e McCulloch a cavallo tra i tardi '40 e i primi '50 (ora la memoria non mi aiuta), sostenendo che il cervello è troppo complesso come modello a cui ispirarsi per i nascendi computer, meglio pensare a un modello più semplice. 2. Pilastro ontologico: la natura di viventi in generale e degli esseri umani in particolare rende l'esperienza della vita situata. La conoscenza umana è anch'essa è situata, in quanto parte dell'esperienza dell'essere vivi. Lo stesso vale per il segno che quella conoscenza vorrebbe trasmettere - come hai ben descritto. Insomma, è necessario avere un corpo per poter fare esperienza delle cose che rendono umani. I sensori di un agente cibernetico automatico sono giocattoli rispetto agli organi di senso umano (di nuovo, Von Neumann dixit o, se preferisci, Frederick Von Frankensteen in "Young Frankenstein" di Mel Brooks :-D: il concetto non cambia). Il cervello dei viventi, poi, è il risultato di milioni di anni di evoluzione e tentativi successivi, lungo innumerevoli generazioni. Le "reti neurali artificiali" non hanno nemmeno cent'anni. Pensare che noi avremmo fatto in cent'anni meglio di quanto fatto dalla natura in milioni, quello si è suprematismo antropocentrico. "Cala trinchetto" diceva mio nonno. Ovviamente non è un ragionamento quantitativo, ma qualitativo, ma tu dovresti riconoscerti facilmente nell'incedere tipico della cibernetica. Per tutto il resto concordiamo, ma questo lo sapevi già. :-) Stefano [1] https://www.edge.org/conversation/marvin_minsky-consciousness-is-a-big-suitc... Il 10/05/26 22:18, Giacomo Tesio via nexa ha scritto:
Caro Andrea,
On Fri, 8 May 2026 15:39:22 +0200 Andrea Bolioli wrote:
eh, sono in parte d'accordo con te Giacomo, ma se entriamo nel tema "semantica" non ne usciamo più... :-)
per quanto stretta e scomoda, è una strada necessaria.
La mail che stai leggendo è una rappresentazione simbolica di un'informazione nella mia mente: un'esperienza soggettiva di pensiero comunicabile che cerco di esprimere e trasmetterti perché tu ne possa vedere i simboli ed interpretarli, riproducendo tale esperienza nella tua mente. [1]
Le parole di questa mail sono legate da relazioni semantiche: ogni parola viene scelta per contribuire alla trasmissione delle informazioni nella mia mente che intendo trasmettere.
Non rileva molto, in realtà, che tali informazioni siano o meno derivate da esperienze sensibili (non concordo particolarmente con Enrico sulla rilevanza dell'esperienza corporea nel contesto delle "intelligenze artificiali", anche perché non è difficile collegare a questi software sensori e attuatori).
Molto più rilevante è la relazione fra l'informazione nella mia mente (l'esperienza di pensiero comunicabile che intendo comunicare) e le parole che scelgo, in modo auspicabilmente adeguato, per trasmetterla.
L'output di un LLM invece non ha alcun significato.
I token estrati dal modello a partire dal prompt non sono legati da relazioni semantiche, ma statistiche. [2]
Nessuna mente sta cercando di esprimere l'esperienza soggettiva di un pensiero comunicabile. I processi di attivazione degli strati finali della vector mapping machine (impropriamente detta "rete neurale arficiale") sono "difficili da interpretare" (per usare le parole di Giuseppe Attardi) semplicemente perché non hanno alcun significato intrinseco [3] e dunque non c'è nulla da interpretare.
Il problema fondamentale è che chi non comprende il funzionamento di questi software attribuisce un significato al loro output, attribuendo alle parole relazioni semantiche invece che statistiche.
Se usi un LLM come archivio compresso con perdita, può essere utile. Ad esempio, puoi estrarre da Claude o da Copilot il codice dei tuoi concorrenti che lo usano (fornendo loro in cambio accesso al tuo). O puoi ottenere lorem ipsum a tema per il prototipo del sito web di un cliente per praticamente qualsiasi ambito commerciale.
Ma se lo confondi con un interlocutore, con un "AI peer programmer" (vedi marketing di GitHub CopyALot o Claude), sei vittima di un inganno.
Giacomo
[1] Infatti, contrariamente ad un protocollo software che permette il trasferimento (più propriamente, la copia) di un dato fra dispositivi diversi, il linguaggio non determina una trasferimento di informazione (che essendo esperienza soggettiva, non lascia mai la mente di chi la esperisce) ma solo una sincronizzazione, parziale e inesatta, fra menti umane. https://encrypted.tesio.it/2019/06/03/what-is-informatics.html#a-complex-rel... [2] nota polemica: _statistiche_, non _probabilistiche_ perché i numeri prodotti a valle delle varie trasformazioni non lineari e delle normalizzazioni calcolate durante l'esecuzione del LLM sul "motore inferenziale" non sono più interpretabili matematicamente come probabilità.
[3] così come non ne hanno i livelli iniziali, sebbene sia possibile ricondurre determinati pattern di attivazione a pattern particolarmente frequenti nel testo, come sono, ovviamente, le strutture grammaticali di una lingua.