Assioma della conoscenza (logica epistemica): Kp -> pa parole: sai che 'p' (es. 'oggi c'è il sole') solo se 'p' è vero: se non hai modo di stabilirlo, allora la tua è solo credenzaChatGPT non sa nulla (ovviamente) ma su moltissime proposizioni noi non siamo messi molto meglioIl punto importante però è un altro: sta in quel 'modo di stabilirlo'.Va detto chiaramente: i LLM non devono essere accettati come modi di stabilire la verità di alcunché.Personaggi anche famosi oggi affermano che l'umanità debba 'adattarsi' a questi usi dei LLM.Usi che sono spinti dalla bulimia capitalistica entrata nella fase allucinatoria.Ecco: secondo me la resistenza potrebbe essere una valida alternativa a questo mortifero adattamento.G.On Fri, 17 Feb 2023 at 20:35, Giacomo Tesio <giacomo@tesio.it> wrote:Non 'in senso stretto": chatgpt non sa nulla._______________________________________________
Per affermare che un LLM sappia qualcosa è necessario svuotare competamente il verbo
"sapere" del proprio significato e sostituirlo con quello di "indicizzare".
ChatGPT non sa.
GiacomoIl 17 Febbraio 2023 18:20:44 UTC, Andrea Bolioli <andrea.bolioli@h-farm.com> ha scritto:Ciao Giacomo,purtroppo sono d'accordo con molte delle cose che scrivi, non tutte, ma molte.Sicuramente è bene diffondere la consapevolezza che gli LLM non sanno tutto (in senso stretto non sanno nulla), scrivono cose false senza distinguere tra vero e falso, vengono creati/utilizzati da aziende che non hanno come primo scopo il bene comune (anche se dicono di averlo), eccABIl giorno ven 17 feb 2023 alle ore 16:16 Giacomo Tesio <giacomo@tesio.it> ha scritto:Salve Andrea,
Roncade, H-FARM Campus, Via Olivetti, 1 – 31056 (TV)
Milano, Corso di Porta Romana, 15 – 20122
Torino, Via San Quintino, 31 – 10121
Our privacy policy.
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa