Caro Roberto, trovo questo accorato appello Il 14 Luglio 2024 12:59:45 UTC, Roberto Dolci <rob.dolci@aizoon.us> ha scritto:
in questo istante i ricercatori di Meta, Antrop, OpenAI e compagnia stanno ANCORA studiando e vedendo come funziona davvero un LLM... Lasciamo che gli scienziati dietro agli LLM facciano il loro mestiere
davvero illuminante. "non disturbate i manovratori!", "lasciate che gli scienziati scienzino!" :-D Ma vedi Roberto, questi "scienziati" non si limitano a "studiare" i software (che hanno programmato statisticamente) che non comprendono nel proprio laboratorio. Li hanno "immessi sul mercato" prima ancora di capire come funzionano! Almeno secondo la narrazione che riporti:
Models are essentially grown, rather than designed, says Josh Batson, a researcher at Anthropic, an AI startup. Because LLMs are not explicitly programmed, nobody is entirely sure why they have such extraordinary abilities. Nor do they know why LLMs sometimes misbehave, or give wrong or made-up answers, known as “hallucinations”. LLMs really are black boxes.
Ma com'è che se invece di considerarle "intelligenze artificiali" li consideri software programmati statisticamente, tutte queste misteriose osservazioni smettono di apparire misteriose e sorprendenti e diventano istantaneamente ovvie? L'hai visto bene con le traduzioni latino->inglese vs inglese->latino: - se ti immagini un'intelligenza che sa tradurre in un senso, è ovvio aspettarsi che lo sappia fare nell'altro. - se comprendi che si tratta di software programmato statisticamente, è chiaro che il numero, la varietà e la lunghezza dei testi inglesi tradotti in latino sarà nettamente inferiore rispetto all'altra direzione, perché la gente non studia latino per complimentarsi con Marziale per la sua sagacia o lamentarsi con Giovenale del suo maschilismo! Lo stesso vale per le "allucinazioni", output ovviamente analoghi a quelli di cui l'utente non nota gli errori, se comprendi che entrambi sono prodotti sulla base delle frequenze rilevate nei testi sorgente: la probabilità di errori aumenta con la lunghezza dell'output. Dunque quale analisi del rischio credi che abbiano fatto prima di rendere accessibile software che suggerisce alle anoressiche come bruciare le calorie in eccesso o di bere con moderazione agli alcolisti? Te lo dico io: hanno analizzato il rischio di essere citati per danni e di dover pagare le controparti in accordo extragiudiziale. Dopo di che hanno messo la cifra a budget. Fine della gestione del rischio per gli "scienziati" di Meta, Antropic e OpenAI. Che poi... "scienziati". Galileo si rivolta nella tomba.
e la prima indicazione e' che si comporta come il nostro cervello per alcuni processi.
ROTFL!!! :-D Ma chi te l'ha detta sta... "interpretazione"? :-D Scusa, ritorno in modalità Nexa: puoi condividere i riferimenti alle publicazioni scientifiche che riportano queste "prime indicazioni"? Giacomo