Quello che va valutato è l'impatto etico-sociale di questa tecnologia e il livello di attribuzione alle parole è importante. Appunto lei è un umano. L'umano tente ad "antropomorfizzare" ogni relazione al di fuori di sé per un semplice motivo, comprendere. È più semplice comprendere partendo da una base conosciuta è la natura si articola sul "minimo sforzo". Lei dice che una schimmia è provocatoria, perché ha una idea di scimmia, dice che una fotocopia è dirimente perché ha un'idea di fotocopia ma soprattutto ha un'idea del testo scritto. Qui andrebbe valutato del testo scritto da chi, ma lasciamo stare e immaginaniamo che sia un esimio professore. Che sia normale trovare della semantica in un testo grammaticalmente sufficientemente corretto e plausibile non si discute, infatti è quello il problema. Se adeguatamente stimolato e altrettanto adeguatamente ignorante in materia con la convinzione che stia discutendo con un oracolo infallibile o quasi, non sarebbe tentato di credere sulla fiducia? Per quale motivo crede che ci si stia così impegnando nel livello "conversazionale" di queste macchine? Non basta incazzarzi per il nome di marketing e per quello che mi riguarda, nemmeno tacciarli di essere "statistici" soltanto (che è una riduzione come IA per fare a capirsi). Che ne facciamo si chiede? Ora come ora, considerando vari fattori il "buttarli a mare" sarebbe l'atto più appropriato, almeno finché non ne esista una reale comprensione e sia chiaro per chiunque come siano soltanto delle macchine. -- massimo Il giorno lun, 11/05/2026 alle 11.48 +0200, abregni via nexa ha scritto:
Scusa, Giacomo, una piccola nota.
A me sembra concettualmente sbagliato dire: "Il problema fondamentale è che chi non comprende il funzionamento di questi software attribuisce un significato al loro output, attribuendo alle parole relazioni semantiche invece che statistiche."
Innanzitutto, io sono un umano, e se leggo qualcosa, leggo lessico, sintassi, semantica (e semantica sulle righe, tra le righe e dietro le righe, nel caso di Giuliano Amato, che riusciva a scrivere a tre livelli). Se poi leggo una fotocopia della Divina Commedia, o uno scritto di scimmia con la macchina da scrivere che l'ha casualmente riprodotta identica -- NB.: la scimmia è "provocatoria", ma la fotocopia è "dirimente" -- sinceramente non vedo testuale né semantica differenza (altro caso è se sono un esperto biblista, e devo distinguere fra un Gutemberg e una Xerox, ma qui stiamo parlando di semantica). Se l'obiettivo della MAL INDICATA "IA", invece di "CdT" (confezionatori di testi), è di confezionare testi su base statistica, o li buttiamo tutti a mare, oppure usiamo i loro risultati per la semantica che più o meno forniscono. Anche quando usi un metro da sarto, o un calibro, vedi dimensioni e non la realtà, e ti va bene anche se il metro e il calibro ...non pensano.
Detto in breve, è DEL TUTTO NORMALE leggere semantica da uno STRUMENTO che cerca di fingerla al meglio. Concordo sul fatto che le informazioni sono nella testa di scrive, ...ma io quando leggo uno scritto ne traggo delle informazioni anche se chi ce le ha messe non le aveva (come molto giornalismo, ad esempio; peggio ancora i social). Perché ti preoccupi del fatto che gli LLM sono "statistici"? Io mi incazzo che li chiamino "IA", ...poi se mi fa comodo li uso, e li uso per la (possibile / ipotetica) semantica. Altrimenti, ...per cosa?
Il 2026-05-10 22:18 Giacomo Tesio via nexa ha scritto:
Caro Andrea,
On Fri, 8 May 2026 15:39:22 +0200 Andrea Bolioli wrote:
eh, sono in parte d'accordo con te Giacomo, ma se entriamo nel tema "semantica" non ne usciamo più... :-)
per quanto stretta e scomoda, è una strada necessaria.
La mail che stai leggendo è una rappresentazione simbolica di un'informazione nella mia mente: un'esperienza soggettiva di pensiero comunicabile che cerco di esprimere e trasmetterti perché tu ne possa vedere i simboli ed interpretarli, riproducendo tale esperienza nella tua mente. [1]
Le parole di questa mail sono legate da relazioni semantiche: ogni parola viene scelta per contribuire alla trasmissione delle informazioni nella mia mente che intendo trasmettere.
Non rileva molto, in realtà, che tali informazioni siano o meno derivate da esperienze sensibili (non concordo particolarmente con Enrico sulla rilevanza dell'esperienza corporea nel contesto delle "intelligenze artificiali", anche perché non è difficile collegare a questi software sensori e attuatori).
Molto più rilevante è la relazione fra l'informazione nella mia mente (l'esperienza di pensiero comunicabile che intendo comunicare) e le parole che scelgo, in modo auspicabilmente adeguato, per trasmetterla.
L'output di un LLM invece non ha alcun significato.
I token estrati dal modello a partire dal prompt non sono legati da relazioni semantiche, ma statistiche. [2]
Nessuna mente sta cercando di esprimere l'esperienza soggettiva di un pensiero comunicabile. I processi di attivazione degli strati finali della vector mapping machine (impropriamente detta "rete neurale arficiale") sono "difficili da interpretare" (per usare le parole di Giuseppe Attardi) semplicemente perché non hanno alcun significato intrinseco [3] e dunque non c'è nulla da interpretare.
Il problema fondamentale è che chi non comprende il funzionamento di questi software attribuisce un significato al loro output, attribuendo alle parole relazioni semantiche invece che statistiche.
Se usi un LLM come archivio compresso con perdita, può essere utile. Ad esempio, puoi estrarre da Claude o da Copilot il codice dei tuoi concorrenti che lo usano (fornendo loro in cambio accesso al tuo). O puoi ottenere lorem ipsum a tema per il prototipo del sito web di un cliente per praticamente qualsiasi ambito commerciale.
Ma se lo confondi con un interlocutore, con un "AI peer programmer" (vedi marketing di GitHub CopyALot o Claude), sei vittima di un inganno.
Giacomo
[1] Infatti, contrariamente ad un protocollo software che permette il trasferimento (più propriamente, la copia) di un dato fra dispositivi diversi, il linguaggio non determina una trasferimento di informazione (che essendo esperienza soggettiva, non lascia mai la mente di chi la esperisce) ma solo una sincronizzazione, parziale e inesatta, fra menti umane. https://encrypted.tesio.it/2019/06/03/what-is-informatics.html#a-complex-rel...
[2] nota polemica: _statistiche_, non _probabilistiche_ perché i numeri prodotti a valle delle varie trasformazioni non lineari e delle normalizzazioni calcolate durante l'esecuzione del LLM sul "motore inferenziale" non sono più interpretabili matematicamente come probabilità.
[3] così come non ne hanno i livelli iniziali, sebbene sia possibile ricondurre determinati pattern di attivazione a pattern particolarmente frequenti nel testo, come sono, ovviamente, le strutture grammaticali di una lingua.