Ciao Giacomo, la farò breve perché il discorso sulla "AI" è talmente iperinflazionato e ripetitivo da risultarmi quasi noioso (perdonatemi!) tra l'altro dico cose banali e credo ampiamente condivise e condivisibili da molti, se non addirittura già espresse, credo anche da te Giacomo Giacomo Tesio <giacomo@tesio.it> writes: [...]
Gran parte delle critiche riguardano appunto i chatbot (allucinazioni, superficialità, ecc.).
Perché costituiscono la base della narrazione allucinata che domina il dibattito informatico attuale, determinando scelte politiche, economiche ed educative altrettanto allucinate.
suvvia: il dibattito informatico è allucinato (e allucinante) da almeno 40 anni, anche per il software "normale", non sto scherzando per esempio, è allucinante che pochi che dibattono di informatica abbiano realmente compreso "Reflections on Trusting Trust" [1]... o /almeno/ abbiano compreso la natura del software sorgente e di quello binario e della relazione "a senso unico" tra i due (che significa anche comprendere la complessità di un "grafo di dipendenze" di qualsiasi software) [...]
Nella realtà, i LLM sono prodotti a partire da testi che sono culturalmente e storicamente situati.
anche il software "normale" è prodotto a partire dagli stessi testi, compresi ovviamente quelli scientifici, solo che in quel caso il "bias" introdotto è anche maggiore :-D (maggiore bias sulla selezione dei testi, minore filtro dei risultati ottenuti) inontre, anche il software "normale" è prodotto in un /regime/ legislativo ed economico che de-facto che ne DETERMINANO il funzionamento, tanto che una percentuale importante del software (binario) circolante è /potential malware/ [2]
Già solo per questo semplice fatto, nessun LLM reale può essere "neutro".
esattamente come nessun software "normale" o qualsiasi altro /sistema/ moderatamente complesso può essere neutro, nella realtà [...]
Poi c'è l'attività di programmazione statistica che parte dalla scelta, fra tutti i testi disponibili, di quelli da utilizzare e di quelli da scartare.
così come nella programmazione "normale": quali testi/tesi scelgo (studio, adotto, adatto) e quali /scarto/ per progettare l'algoritmo?
A valle di un'accurata attività di selezione e rinforzo, i "modelli" producono output "politicamente corretto", quale che siano gli obiettivi politici dei programmatori, dal legittimare il proprio software agli occhi dei moralisti statunitensi, difendere il proprio modello di business o cancellare piazza Tiananmen dalla storia [2]
così come qualsiasi dato /cucinato/; intendiamoci sono TUTTI cucinati ma molti sono adulterati al punto che ci vorrebbero i NAS dei dati lascio al lettore l'esercizio di elencarsi mentalmente due argomenti a caso per i quali i risultati ottenuti con sofisticatissimo modelli software sono in realtà /farlocchissimi/ a causa dei dati taroccati ad arte, con /tecniche/ sofisticatissima in alcuni casi
E spero tu non creda davvero che i modelli di Google, Meta o Open AI siano in alcun modo "neutrali".
E spero che tu non creda davvero che i modelli di BEEEP siano in alcun modo "neutrali" :-O
Dunque anche se l'idea di LLM non fosse intrinsecamente orientata politicamente (e lo è), lo sono tutti gli LLM reali.
Così come tutto il resto del software sulla faccia della terra programmato a partire dal 1960 ad oggi [...] Quindi, ricapitolando: quale sarebbe il problema INFORMATICO con gli LM e/o gli LLM?!? Io la butto lì: per avere fiducia del sofware che uso so che deve essere libero, riproducibile e bootstrappable ....non è possibile con i LM o gli LLM?!? Beh allora io sono SICURO che i risultati di tali software DEVONO essere attentamente analizzati da una persona con adeguate competenze prima di essere usati per qualsiasi decisione. Sarò banale, ma io non capisco proprio perché continua ad esserci tutta 'sta SOPRAVVALUTAZIONE, sia in positivo che in negativo, delle funzioni dei LM, LLM, "sistemi generativi", SALAMI o qualsiasi altra etichetta si voglia dare alla "narrow AI" Ciao e grazie, Giovanni. [1] https://www.cs.cmu.edu/~rdriley/487/papers/Thompson_1984_ReflectionsonTrusti... [2] https://www.gnu.org/proprietary/potential-malware.html -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.