From: antonio <antonio@piumarossa.it<mailto:antonio@piumarossa.it>> No: sono archivi compressi con perdita di sequenze testuali di cui è possibile decomprimere approssimazioni di alcune zone fornendo in input una sequenza testuale prossima a quelle presenti nei testi sorgente. E' una spiegazione semplice, comprensibile ed esaustiva. Più che semplice, semplicistica. Aggiungo (tratto da [1]) ... Ahi! Sono numeri che il modello ha imparato durante l'addestramento. Non hanno "significato" umano e non rappresentano concetti o regole linguistiche in modo leggibile. 4.096 è grande abbastanza da codificare significati sfumati. Già: significati sfumati. Peccato poi che gli esperimenti, ad esempio con i syntax probe (Hewitt and Manning), dimostrino invece che rappresentano relazioni di dipendenze sintattiche tra le parole, e altre relazioni linguistiche semantiche quali la coreference. Altri concetti linguistici come i POS si ottengono ancor più facilmente col clustering. La pretesa che abbiano un’intelligibilità umana è del tutto pretestuosa. Ciò che conta è che abbiano un significato per il modello, che se li è costruiti appositamente per poter funzionare. È solo che per poterli “leggere” occorrono strumenti appositi, non c’è una leggenda, come per i file GGUF. BTW, quali “concetti o regole linguistiche" ha un bambino di 3 anni, che parla bene una lingua, senza che nessuno gli abbia insegnato alcunché di analisi sintattica o grammaticale? Non avrà imparato anche lui qualcosa che a noi risulta non intelligibile? — Quello che NON è un modello NON è intelligenza artificiale consapevole NON è un database esplicito di fatti memorizzati NON ha "comprensione" nel senso umano NON "ragiona" nel senso umano: calcola probabilità NON ha un meccanismo nativo di verifica logica/fattuale delle sue risposte NON apprende ma adatta i pesi durante l'inferenza NON contiene neuroni in senso organico, ma numeri, numeri e solo numeri NON ha memoria permanente tra le conversazioni (a meno che il sistema esterno non la aggiunga) [1] https://ilcibernetico.it/autopsia-di-un-llm-parte-prima/ [2] https://ilcibernetico.it/il-tokenizzatore-autopsia-di-un-llm-parte-seconda/ A.
Il giorno mer, 13/05/2026 alle 09.11 +0000, Giuseppe Attardi via nexa ha scritto:
BTW, quali “concetti o regole linguistiche" ha un bambino di 3 anni, che parla bene una lingua, senza che nessuno gli abbia insegnato alcunché di analisi sintattica o grammaticale? Non avrà imparato anche lui qualcosa che a noi risulta non intelligibile?
Buondì a lei e scusi se eventualmente possa farle perdere tempo. Non so, preferisce l'approccio costruttivista o quello socio-culturale? Indipendentemente da questo un bambino di 3 anni conosce, se la "pressione linguistica" è adeguata, circa 500 parole. Seppur non in grado di "astrarre" è perfettamente in grado di comporre relazioni semantiche concrete tra le parole. Non solo, ma anche gestire combinazioni equivalenti, complementari e supplementari di parole e gesti e farne un uso referenziale. Ha uno sviluppo morfosintattico indotto (genitori che parlano un lingua corretta per esempio) suddiviso idealmente in alcune fasi di cui la presitattica fino a circa due anni, seguita da una sintatticamente primitiva poi consolidata nella "frase nucleare" sui tre anni. Tra i 3 e quattro anni si può parlar di competenza linguistica. Come suppongo sappia poi dai cinque/sei (alcuni prima, pensi che sapevo scrivere a quattro anni grazie a mia madre) il bambino si appropria della corrispondenza fonema/grafema. Ora, vede... Qui stiamo parlando di esseri umani e non di macchine. Buona giornata. -- massimo
D'accordo Giuseppe, assumiamo per un momento che tu abbia ragione. On Wed, 13 May 2026 09:11:00 +0000 Giuseppe Attardi wrote:
sono archivi compressi con perdita di sequenze testuali di cui è possibile decomprimere approssimazioni di alcune zone fornendo in input una sequenza testuale prossima a quelle presenti nei testi sorgente. E' una spiegazione semplice, comprensibile ed esaustiva.
Più che semplice, semplicistica.
Possiamo definire una teoria scientifica come "semplicistica" se non riesce a spiegare tutte le osservazioni sperimentali pertinenti. Ti chiedo dunque (per l'ennesima volta) di condividere osservazioni sperimentali (ovvero riproducibili) relative ad un LLM che non possano essere spiegate semplicemente come sopra. Te lo avevo già chiesto qualche giorno fa (richiesta ribadita, se non erro, anche da Enrico): On Fri, 8 May 2026 11:45:07 +0200 Giacomo Tesio wrote:
On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote:
Ci sono numerosi casi di risultati che non sono ottenibili “riorganizzando informazioni già presenti nei dati”.
Puoi condividere un paio delle numerose ricerche scientifiche sperimentali (ovvero, secondo il metodo scientifico, riproducibili) che mostrano output non ottenibili "riorganizzando informazioni già presenti nei dati"?
Per dati, intendo il sorgente del software (sia il codice imperativo che i dati compilati e compressi durante l'eventuale programmazione statistica), lo stato iniziale e tutto l'input fornito (inclusi eventuali input casuali o pseudocasuali).
Ti sfido dunque a dimostrare che la mia spiegazione è semplicistica. Se non è possibile portare evidenze sperimentali, ne dovremo dedurre che l'ipotesi della "intelligenza artificiale" è scientificamente superflua per spiegare il comportamento di questi software programmati statisticamente e come tale, va scartata per il principio di parsimonia. Per altro, come faceva notare Daniela in un altro thread, il problema stesso di spiegare le "scelte" delle "GenAI" sparisce nel momento in cui riconosci il loro output come semplice decompressione approssimativa di un archivio compresso con perdita, invece di interpretarle, appunto, come testo prodotto da un'intelligenza. Spariscono anche completamente le "allucinazioni" degli LLM, perché cercare corrispondenza logica o fattuale fra la realtà e la decompressione approssimativa di un archivio compresso con perdita, sarebbe ridicolo. Al contempo, quelle degli "esperti" da Altman a Cristianini, diventano invece palesi e, auspicabilmente, curabili. ;-) Giacomo
participants (3)
-
Giacomo Tesio -
Giuseppe Attardi -
Massimo Maria Ghisalberti