Ciao Giacomo,
ti rispondo perché in questo messaggio scarti (secondo me entrando in contraddizione con te stesso) un argomento che, a mio parere, è uno dei potenziali pilastri della critica all'allucinazione collettiva che porta a identificare umani e macchine. Preciso: non a creare metafore o parallelismi, bensì a identificare come in "I am a stochastic parrot, too!" (S. Altman).
I due pilastri, secondo me, sono:
1. Pilastro epistemologico: identificare due fenomeni che si presentano in due sistemi di
complessità differenti che non hanno nulla in comune è, semplicemente, "cargo cult science" (Feynman). A
ciascuno la sua fede su cosa sia superiore o meno (c'è libertà
di culto, oltre che di pensiero, finché vige ancora la
Costituzione), ma quello che è innegabile è che macchine
e umani sono profondamente differenti.
Gli esseri umani sono basati sul carbonio e sono
viventi: nascono, crescono, si riproducono, invecchiano, muoiono
e producono un flusso di coscienza praticamente ininterrotto
anche nel sonno. Le macchine sono basate su metalli e silicio:
non nascono, non crescono, non invecchiano (si consumano, ma
possono essere ripristinate), non muoiono. Al massimo vengono
dismesse. Ovviamente producono output
solo se appositamente sollecitate (il famoso prompt) e
questo è molto differente da un flusso di coscienza. A uno sguardo un pelino più approfondito di quello di
McCulloch-Pitts, direi che quello che salta all'occhio son più
differenze che similitudini.
Pertanto, identificare le risposte di un umano con
l'output di un LLM è semplicemente un errore grossolano o,
se preferiamo, lavorare "in approssimazione di studente sferico"
(come facevo da studente a fisica tanti anni fa) e per questo stesso motivo l'accusa
di "anthropocentric bias", che Silicon Valley scaglia contro chi
insiste nel sottolineare la differenza è ridicola.
Una dimostrazione scientifica
dell'identità dei due fenomeni richiederebbe tanti di quei passi
che mi viene il mal di capa anche solo a immaginarla. Ovviamente
tra questi ci sarebbe definire "risposta", "coscienza",
"pensare", "intelligenza": oltre il 50% dei termini bollati da
Marvin Minsky stesso come "parole con la valigia" [1], che lui
pensava allontanassero dalla soluzione del problema. Questo,
intendiamoci bene, è un problema di chi sostiene l'identità, non
di chi la rifiuta. Chiunque mastichi il metodo scientifico sa
che l'onere della prova cade in capo al proponente di una nuova
teoria o intuizione, che pertanto resta falsa fino a che non vi
sono sufficienti evidenze del contrario (es. misurazioni di
Hubble l'universo in espansione, lavoro di Sir Eddington per la
relatività).
Ovviamente questo non impedisce di riconoscere dei parallelismi
o delle metafore e sfruttarle per comprendere
alcuni sotto-meccanismi e non certo l'intero fenomeno,
come volevano fare i cibernetici. Ma lo stesso Von Neumann
rigetta l'idea dell'identificazione in una lettera a Wiener e
McCulloch a cavallo tra i tardi '40 e i primi '50 (ora la
memoria non mi aiuta), sostenendo che il cervello è troppo
complesso come modello a cui ispirarsi per i nascendi computer,
meglio pensare a un modello più semplice.
2. Pilastro ontologico: la natura di viventi in generale e degli esseri umani in particolare rende l'esperienza della vita situata. La conoscenza umana è anch'essa è situata, in quanto parte dell'esperienza dell'essere vivi. Lo stesso vale per il segno che quella conoscenza vorrebbe trasmettere - come hai ben descritto. Insomma, è necessario avere un corpo per poter fare esperienza delle cose che rendono umani.
I sensori di un agente cibernetico automatico sono giocattoli rispetto agli organi di senso umano (di nuovo, Von Neumann dixit o, se preferisci, Frederick Von Frankensteen in "Young Frankenstein" di Mel Brooks :-D: il concetto non cambia). Il cervello dei viventi, poi, è il risultato di milioni di anni di evoluzione e tentativi successivi, lungo innumerevoli generazioni. Le "reti neurali artificiali" non hanno nemmeno cent'anni. Pensare che noi avremmo fatto in cent'anni meglio di quanto fatto dalla natura in milioni, quello si è suprematismo antropocentrico. "Cala trinchetto" diceva mio nonno. Ovviamente non è un ragionamento quantitativo, ma qualitativo, ma tu dovresti riconoscerti facilmente nell'incedere tipico della cibernetica.
Per tutto il resto concordiamo, ma questo lo sapevi già. :-)
Stefano
[1] https://www.edge.org/conversation/marvin_minsky-consciousness-is-a-big-suitcase
Caro Andrea, On Fri, 8 May 2026 15:39:22 +0200 Andrea Bolioli wrote:eh, sono in parte d'accordo con te Giacomo, ma se entriamo nel tema "semantica" non ne usciamo più... :-)per quanto stretta e scomoda, è una strada necessaria. La mail che stai leggendo è una rappresentazione simbolica di un'informazione nella mia mente: un'esperienza soggettiva di pensiero comunicabile che cerco di esprimere e trasmetterti perché tu ne possa vedere i simboli ed interpretarli, riproducendo tale esperienza nella tua mente. [1] Le parole di questa mail sono legate da relazioni semantiche: ogni parola viene scelta per contribuire alla trasmissione delle informazioni nella mia mente che intendo trasmettere. Non rileva molto, in realtà, che tali informazioni siano o meno derivate da esperienze sensibili (non concordo particolarmente con Enrico sulla rilevanza dell'esperienza corporea nel contesto delle "intelligenze artificiali", anche perché non è difficile collegare a questi software sensori e attuatori). Molto più rilevante è la relazione fra l'informazione nella mia mente (l'esperienza di pensiero comunicabile che intendo comunicare) e le parole che scelgo, in modo auspicabilmente adeguato, per trasmetterla. L'output di un LLM invece non ha alcun significato. I token estrati dal modello a partire dal prompt non sono legati da relazioni semantiche, ma statistiche. [2] Nessuna mente sta cercando di esprimere l'esperienza soggettiva di un pensiero comunicabile. I processi di attivazione degli strati finali della vector mapping machine (impropriamente detta "rete neurale arficiale") sono "difficili da interpretare" (per usare le parole di Giuseppe Attardi) semplicemente perché non hanno alcun significato intrinseco [3] e dunque non c'è nulla da interpretare. Il problema fondamentale è che chi non comprende il funzionamento di questi software attribuisce un significato al loro output, attribuendo alle parole relazioni semantiche invece che statistiche. Se usi un LLM come archivio compresso con perdita, può essere utile. Ad esempio, puoi estrarre da Claude o da Copilot il codice dei tuoi concorrenti che lo usano (fornendo loro in cambio accesso al tuo). O puoi ottenere lorem ipsum a tema per il prototipo del sito web di un cliente per praticamente qualsiasi ambito commerciale. Ma se lo confondi con un interlocutore, con un "AI peer programmer" (vedi marketing di GitHub CopyALot o Claude), sei vittima di un inganno. Giacomo [1] Infatti, contrariamente ad un protocollo software che permette il trasferimento (più propriamente, la copia) di un dato fra dispositivi diversi, il linguaggio non determina una trasferimento di informazione (che essendo esperienza soggettiva, non lascia mai la mente di chi la esperisce) ma solo una sincronizzazione, parziale e inesatta, fra menti umane. https://encrypted.tesio.it/2019/06/03/what-is-informatics.html#a-complex-relationship [2] nota polemica: _statistiche_, non _probabilistiche_ perché i numeri prodotti a valle delle varie trasformazioni non lineari e delle normalizzazioni calcolate durante l'esecuzione del LLM sul "motore inferenziale" non sono più interpretabili matematicamente come probabilità. [3] così come non ne hanno i livelli iniziali, sebbene sia possibile ricondurre determinati pattern di attivazione a pattern particolarmente frequenti nel testo, come sono, ovviamente, le strutture grammaticali di una lingua.