“Quando sembrano ragionare, combinano schemi appresi dai dati. Quando sembrano sapere qualcosa, producono l’output statisticamente più coerente con il contesto, senza avere accesso diretto al mondo o a meccanismi autonomi di verifica.”
Tuttavia bisogna prendere in considerazione il fatto che i sistemi generativi attuali non sono più semplici (si fa per dire) “predittori del prossimo token”. La differenza tra Claude, ChatGPT, Gemini, etc. ormai non è più tanto nel modello di base, quanto nell’harness, cioè nella orchestrazione di runtime fatta di cicli interni, uso di tool, valutazione del contesto, etc. I sistemi generativi sono diventati ensemble di agenti, come spiegava Anthropic già nel 2024 (https://www.anthropic.com/engineering/building-effective-agents) – il che spiega anche come mai Claude abbia preso il sopravvento. Se questo è vero, bisogna tornare su quell’”accesso diretto al mondo” e quei “meccanismi autonomi di verifica”, per valutare come e quanto siano fattori differenziali. Sappiamo che la terra non è piatta perché l’abbiamo visto? O ci siamo messi a fare esperimenti? Non si può essere “realisti” al punto da ignorare che la nostra conoscenza è un fatto sociale che passa per la testualità, non bisogna aver letto Gadamer e Ricoeur.
Detto questo, ma fa piacere che l’appello (che ovviamente non firmerò) sia promosso da Enrico Nardelli, con cui spero che – al contrario di Quattrociocchi – si possa fare una discussione seria.
Guido