Salve Daniela, Il 19 Giugno 2024 11:15:55 UTC, Daniela Tafani <daniela.tafani@unipi.it> ha scritto:
GARY MARCUS: It’s exactly right. These systems have no conception of truth. Sometimes they land on it and sometimes they don’t, but they’re all fundamentally bullshitting in the sense that they’re just saying stuff that other people have said and trying to maximize the probability of that. It’s just auto complete, and auto complete just gives you bullshit.
Sono noioso, ma non posso fare a meno di sottolineare come, anche in critiche come questa, il soggetto delle frasi sposta l'attenzione sullo strumento, sollevando chi lo amministra da qualsiasi responsabilità. È ovvio [1] che l'output di questi software programmati statisticamente non può avere alcuna relazione con la verità. È ovvio che nessun software ha conoscenza, né del bene o del male, né del vero o del falso. È ovvio che nessun software può avere intenzionalità propria per cui non può scegliere di mentire o dire a verità. Ma non è ChatGPT a distribuire sul web i propri output! L'intenzionalità c'è ed è di OpenAI, Microsoft etc... Distribuendo online l'output del software che hanno scritto ed amministrano, queste società scelgono di diffondere testi che non hanno corrispondenza con la realtà. Dunque, quandanche la tipologia di software di cui parliamo fosse qualificabile come bullshit generator, gli output diffusi da OpenAI, Microsoft, Google etc.. sono semplicemente disinformazione. Il fatto che ogni tanto tali output possano essere interpretati come informazioni corispondenti alla realtà, serve esattamente allo scopo di diffondere disinformazione: come sappiamo tutti, per rendere una menzogna più credibile e perniciosa, è utile diffomderla insieme a tante verità note o facilmente verificabili (magari con una ricerca online :-D) Se comprendiamo la natura di questi output e li riconosciamo come espressione della volontà di chi programma statisticamente e amministra[2] il LLM, gli scopi di queste aziende diventano ovvi: - diffondere false credenze relative a questi software [3] - ottenere fondi sulla base di queste false credenze (dal mercato, dagli stati etc) - ottenere normative favorevoli (come l'AI Act) sulla base di queste false credenze Si tratta di truffatori su scala globale che hanno automatizzato ed affittano la produzione di "bugie industriali". Passare da "hallucination" a "bullshit", non riduce molto l'antropomorfizzazione dei software in questione, ma continua a nascondere la natura dell'operato di chi li produce. Non siamo di fronte a macchine che imparano ("machine learning"), ma a multinazionali potentissime che mentono. Giacomo [1] a chiunque comprenda come funzioni la selezoone ("previsione" rotfl!) di un token a partire dal contesto ed il ruolo che vi assume l'input randomico. [2] ovvero protegge infornaticamente, aggiorna, paga la corrente per programmarli ed eseguirli etc [3] false credenze che poi vengono ripetute "a pappagallo" da persone incompetenti (in materia) che purtroppo vengono viste come autorevoli (per esserlo, forse, in altre discipline). Qualche giorno fa ho ascoltato allibito un'intervista ad un Professore, presentatosi come fisico del CERN nonché (ex?) docente dell'Università di Torino, snocciolare una serie incredibile di stronzate sulle "intelligenze artificiali" che parevano uscite da un convegno transumanista. Inferendo da un'esperienza vecchia di 20 o 30 anni delle "reti neurali", finiva per prospettare il sicuro avvento dell'AGI con cui la società si sarebbe dovuta confrontare a livello etico, superando l'idea stessa di anima (sic!) e riconoscendo l'uomo come un automa complesso del tutto equivalente agli altri. Si tratta di un'intervista per un podcast italiano dedicato alla "cyber security" (anche se le competenze di chi lo conduce vacillano continuamente), dunque non orientato a persone del tutto ignoranti dal punto di vista informatico, ma iper-specializzate, e dunque "vulnerabili" a questo tipo di disinformazione propagandistica.