Usi che sono spinti dalla bulimia capitalistica entrata nella fase allucinatoria.

Ecco: secondo me la resistenza potrebbe essere una valida alternativa a questo mortifero adattamento.

 

L’adozione di un nuovo modello è ciò che vado proponendo io, e che presenterò martedì 14 marzo all’Eticaffè ospitato da Caffè Vergnano di Corso Einaudi 31, a Torino.

 

Andrea Surbone
+39 335 7226007

www.surbone.it

www.jussemper.org

www.propostaneokeynesiana.it

 

D. Astrologo, A. Surbone, P. Terna

Il lavoro e il valore al tempo dei robot - Intelligenza artificiale e non-occupazione

Meltemi, Milano 2019con prefazione di Adam Smith

www.meltemieditore.it/catalogo/lavoro-valore-allepoca-dei-robot/

 

Da: nexa <nexa-bounces@server-nexa.polito.it> Per conto di Guido Vetere
Inviato: sabato 18 febbraio 2023 12:08
A: Giacomo Tesio <giacomo@tesio.it>
Cc: Andrea Bolioli via nexa <nexa@server-nexa.polito.it>
Oggetto: Re: [nexa] l'output e le fonti [era Triste Annuncio (a proposito di Chat GPT)]

 

Assioma della conoscenza (logica epistemica): Kp -> p

a parole: sai che 'p' (es. 'oggi c'è il sole') solo se 'p' è vero: se non hai modo di stabilirlo, allora la tua è solo credenza

ChatGPT non sa nulla (ovviamente) ma su moltissime proposizioni noi non siamo messi molto meglio

Il punto importante però è un altro: sta in quel 'modo di stabilirlo'.

Va detto chiaramente: i LLM non devono essere accettati come modi di stabilire la verità di alcunché.

Personaggi anche famosi oggi affermano che l'umanità debba 'adattarsi' a questi usi dei LLM.

Usi che sono spinti dalla bulimia capitalistica entrata nella fase allucinatoria.

Ecco: secondo me la resistenza potrebbe essere una valida alternativa a questo mortifero adattamento.

 

G.

     

 

 

 

 

On Fri, 17 Feb 2023 at 20:35, Giacomo Tesio <giacomo@tesio.it> wrote:

Non 'in senso stretto": chatgpt non sa nulla.

Per affermare che un LLM sappia qualcosa è necessario svuotare competamente il verbo
"sapere" del proprio significato e sostituirlo con quello di "indicizzare".

ChatGPT non sa.


Giacomo

Il 17 Febbraio 2023 18:20:44 UTC, Andrea Bolioli <andrea.bolioli@h-farm.com> ha scritto:

Ciao Giacomo,

 

purtroppo sono d'accordo con molte delle cose che scrivi, non tutte, ma molte. 

Sicuramente è bene diffondere la consapevolezza che gli LLM non sanno tutto (in senso stretto non sanno nulla), scrivono cose false senza distinguere tra vero e falso, vengono creati/utilizzati da aziende che non hanno come primo scopo il bene comune (anche se dicono di averlo), ecc

 

AB

 

 

Il giorno ven 17 feb 2023 alle ore 16:16 Giacomo Tesio <giacomo@tesio.it> ha scritto:

Salve Andrea,

 

 

 

Roncade, H-FARM Campus, Via Olivetti, 1 – 31056 (TV)
Milano, Corso di Porta Romana, 15 – 20122
Torino, Via San Quintino, 31 – 10121

 

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa