Ciao Daniela, Il 10 Giugno 2025 21:56:57 UTC, Daniela Tafani <daniela.tafani@unipi.it> ha scritto:
More than a quarter of a century later, when a task is close to the training data, these systems work pretty well. But as they stray further away from that data, they often break down, as they did in the Apple paper’s more stringent tests. Such limits arguably remain the single most important serious weakness in LLMs.
The hope, as always, has been that “scaling” the models by making them bigger, would solve these problems.
Attenzione che questo passggio assume una buona fede incompatibile con la comprensione della programmazione statistica. In altri termini: o chi sosteneva di credere questa sciocchezza non comprendeva il funzionamento di una "rete neurale artificiale" [1] o stava ingannando gli interlocutori. E visto che comunque dei risultati tecnicamente interessanti (ancorché inutili) queste persone li hanno ottenuti, mostrando adeguata comprensione tecnica di tali macchine virtuali, siamo costretti a scartare la prima ipotesi. Giacomo [1] meglio descrivibili come mappatori statistici di vettori / vector mapping machines