D'accordo Giuseppe, assumiamo per un momento che tu abbia ragione. On Wed, 13 May 2026 09:11:00 +0000 Giuseppe Attardi wrote:
sono archivi compressi con perdita di sequenze testuali di cui è possibile decomprimere approssimazioni di alcune zone fornendo in input una sequenza testuale prossima a quelle presenti nei testi sorgente. E' una spiegazione semplice, comprensibile ed esaustiva.
Più che semplice, semplicistica.
Possiamo definire una teoria scientifica come "semplicistica" se non riesce a spiegare tutte le osservazioni sperimentali pertinenti. Ti chiedo dunque (per l'ennesima volta) di condividere osservazioni sperimentali (ovvero riproducibili) relative ad un LLM che non possano essere spiegate semplicemente come sopra. Te lo avevo già chiesto qualche giorno fa (richiesta ribadita, se non erro, anche da Enrico): On Fri, 8 May 2026 11:45:07 +0200 Giacomo Tesio wrote:
On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote:
Ci sono numerosi casi di risultati che non sono ottenibili “riorganizzando informazioni già presenti nei dati”.
Puoi condividere un paio delle numerose ricerche scientifiche sperimentali (ovvero, secondo il metodo scientifico, riproducibili) che mostrano output non ottenibili "riorganizzando informazioni già presenti nei dati"?
Per dati, intendo il sorgente del software (sia il codice imperativo che i dati compilati e compressi durante l'eventuale programmazione statistica), lo stato iniziale e tutto l'input fornito (inclusi eventuali input casuali o pseudocasuali).
Ti sfido dunque a dimostrare che la mia spiegazione è semplicistica. Se non è possibile portare evidenze sperimentali, ne dovremo dedurre che l'ipotesi della "intelligenza artificiale" è scientificamente superflua per spiegare il comportamento di questi software programmati statisticamente e come tale, va scartata per il principio di parsimonia. Per altro, come faceva notare Daniela in un altro thread, il problema stesso di spiegare le "scelte" delle "GenAI" sparisce nel momento in cui riconosci il loro output come semplice decompressione approssimativa di un archivio compresso con perdita, invece di interpretarle, appunto, come testo prodotto da un'intelligenza. Spariscono anche completamente le "allucinazioni" degli LLM, perché cercare corrispondenza logica o fattuale fra la realtà e la decompressione approssimativa di un archivio compresso con perdita, sarebbe ridicolo. Al contempo, quelle degli "esperti" da Altman a Cristianini, diventano invece palesi e, auspicabilmente, curabili. ;-) Giacomo