l'output e le fonti [era Triste Annuncio (a proposito di Chat GPT)]
Il prossimo passaggio dopo la generazione di testi di fantasia è cercare di associare delle "fonti" ai testi generati (è in corso l'integrazione con i motori di ricerca), in modo che possiamo andare a vedere dei documenti che ci possono servire come referenze per le informazioni espresse nel testo generato. Per gli LLM non sono in realtà delle fonti, forse possiamo vederle come "prove a supporto". a mio modo di vedere una della questioni è proprio questa: le fonti. ognuno di noi qui dentro non sa che farsene di una pappetta di stringhe frullata da un chatbot che poi gli dice "ho fatto il frullato partendo dalle fonti A B e C", per tre motivi:
1. in generale sappiamo cercare e trovare da noi le fonti A B e C sul tema 2. sappiamo che costruzione di conoscenza a partire dall'informazione è un processo oneroso/faticoso individuale che implica non solo aspetti di valutazione delle fonti sia dal punto di vista formale (autenticità) sia dal punto di vista del contenuto (veridicità), ma anche aspetti di integrazione delle informazioni che nessuno compie allo stesso modo di un altro 3. se anche il chatobot informasse che ha usato le fonti A B e C per preparare il frullato, le 3 fonti usate non bastano da sole a spiegare perché ne è uscito quel frullato lì in quanto entrano in gioco i "parametri" con cui le fonti sono state elaborate noi qui dentro. e tutte le persone che non hanno le competenze digitali, culturali, politiche, informatiche, ecc., per cogliere il senso della complessità (della velenosità?) della pappetta che il chatbot gli ammannisce, e se la berranno beate senza nemmeno buttare l'occhio su quei simulacri di obiettività informativa costituiti dalla citazione delle fonti usate dal chatbot? Maurizio Il 17/02/23 11:13, Andrea Bolioli <andrea.bolioli@h-farm.com> ha scritto:
Date: Fri, 17 Feb 2023 11:13:37 +0100 From: Andrea Bolioli<andrea.bolioli@h-farm.com> To: "Marco A. Calamari"<marcoc_maillist@marcoc.it> Cc:nexa@server-nexa.polito.it Subject: Re: [nexa] Triste Annuncio (a proposito di Chat GPT)
Buongiorno a tutti/e
grazie per questo thread stimolante. ChatGPT e in generale gli LLM per come sono stati sviluppati finora non possono dare garanzie sulla verità degli enunciati che generano. Come sappiamo sono stati creati facendo apprendimento automatico su grandi quantità di testi (web, libri, ecc) per creare dei grandi modelli linguistici/testuali. Gli LLM generano testo corretto (quasi sempre) dal punto di vista morfologico e sintattico, frasi lunghe e complesse (competenze linguistiche); generano testo coerente, complesso, usando stili diversi, fanno riassunti, possono parafrasare, possono eseguire altri task linguistico/testuali (competenze testuali). La cosa notevole di questi LLM è che riescono a simulare delle "competenze linguistiche" (nel senso di capacità di svolgere alcuni compiti linguistici) che erano molto difficili da trattare computazionalmente fino a poco tempo fa. Per chi fa NLP da 30 anni, il risultato è veramente notevole. Fino a qualche anno fa si cercava di fare generazione automatica con tecniche diverse e con scarsi risultati.
I testi generati non hanno corrispondenza con i fatti della realtà, sono in un certo senso testi di fantasia, quindi "falsi" se pensiamo che dovrebbero descrivere i fatti della realtà. Alcuni corrispondo ai fatti della realtà, e quindi ci sembra normale considerarli "veri", corretti, giusti.
Se chi usa gli LLM pensa che siano basati su dati verificati e che descrivano i fatti in modo corretto, abbiamo un problema, come è stato già detto nel thread.
Il prossimo passaggio dopo la generazione di testi di fantasia è cercare di associare delle "fonti" ai testi generati (è in corso l'integrazione con i motori di ricerca), in modo che possiamo andare a vedere dei documenti che ci possono servire come referenze per le informazioni espresse nel testo generato. Per gli LLM non sono in realtà delle fonti, forse possiamo vederle come "prove a supporto".
La generazione di testi che abbiamo adesso è molto simile alla generazione di immagini.
Buona giornata! Andrea
Il giorno ven 17 feb 2023 alle ore 10:17 Marco A. Calamari < marcoc_maillist@marcoc.it> ha scritto:
La mia biografia, chiesta qualche settimana fa, è dettagliatissima.
Peccato che sia totalmente inventata.
La mia ricerca fattuale di quello che dice non ha prodotto risultati o la presenza di omonimi. o l'esistenza di libri o cicli.
Oggi comunque GPT-3, imbeccato con le stesse parole, rifiuta di conoscermi.
Per la data della morte preferisco sorvolare.
“Conosci un autore chiamato Marco Calamari, che scrive con lo pseudonimo di “Cassandra?”
“Marco Calamari è uno scrittore italiano che scrive principalmente fantasy. Ha pubblicato diversi romanzi con lo pseudonimo di “Cassandra”, tra cui la trilogia “Sette Leghe sotto il Mare”, “Il Re delle Ombre” e la serie “La Stirpe del Vento”. La sua opera più recente è “Il Regno delle Ombre”, una saga fantasy composta da due libri. I suoi lavori sono stati tradotti in diverse lingue e hanno vinto numerosi premi letterari. Calamari ha anche scritto alcune raccolte di racconti fantasy e alcune opere di narrativa per adulti. È anche un noto membro della scena fantasy italiana ed è uno degli autori più prolifici del suo genere.”
Ne scrivo qui
https://medium.com/@calamarim/cassandra-crossing-i-social-ai-tempi-di-gpt-3-...
e questa è la serie di articoli in tema
https://calamarim.medium.com/list/false-intelligenze-artificiali-b38c8544c66...
Un caro saluto.
On gio, 2023-02-16 at 21:27 +0000, Diego Giorio wrote:
Comunque, visto che stasera stiamo giocando con le biografie, ho provato con la mia. Ovviamente non sono famoso come il Professore ed ho dovuto insistere e imbeccarlo un po' prima di arrivare a qualcosa di concreto (e non precisissimo). Peraltro facendo la stessa ricerca con Google escono molti più risultati e più pertinenti:
chi è diego giorio?
Non ho informazioni su una persona di nome Diego Giorio. Potrebbe fornirmi maggiori informazioni sul contesto in cui ha sentito questo nome? In questo modo, potrei cercare di aiutarti a trovare le informazioni che stai cercando. [image:dgiorio@hotmail.com] diego giorio articoli demografici
Mi dispiace, ma non ho trovato alcuna informazione su un autore di nome Diego Giorio specializzato in articoli demografici. Potrebbe fornire maggiori informazioni sulla fonte in cui ha trovato questi articoli o sul contesto in cui ha sentito questo nome? In questo modo, potrei cercare di aiutarti a trovare le informazioni che stai cercando. [image:dgiorio@hotmail.com] dieog giorio articoli demografici sepel
Mi dispiace, ma anche una ricerca con la parola chiave "Diego Giorio" e "sepel" non ha restituito risultati significativi sulla persona o gli articoli demografici a cui fai riferimento. Potrebbe fornire maggiori dettagli sul contesto in cui ha sentito parlare di questo autore o degli articoli demografici? In questo modo, potrei cercare di aiutarti a trovare le informazioni che stai cercando. [image:dgiorio@hotmail.com] https://formazione.sepel.it/docente?id_docente=8
Grazie per aver fornito ulteriori informazioni. La pagina web a cui ti riferisci sembra essere il profilo di un docente di nome Diego Giorio sul sito web dell'azienda italiana Sepel, specializzata in formazione aziendale e professionale.
Secondo la sua biografia sul sito di Sepel, Diego Giorio è un consulente senior con oltre 20 anni di esperienza nel campo della ricerca sociale e di mercato, con competenze specifiche in demografia, statistica, analisi dati e modellizzazione. Inoltre, è descritto come un esperto nella progettazione e conduzione di studi di ricerca, nonché nella presentazione e interpretazione dei risultati.
Pare che Diego Giorio abbia una vasta esperienza nella pubblicazione di articoli e report di ricerca in diverse aree, tra cui demografia, economia, istruzione e ambiente. Potrebbe essere questo il motivo per cui hai trovato riferimenti a lui e ai suoi articoli demografici.
Spero che queste informazioni siano utili.
Però trovo interessante che non avesse informazioni in memoria, ma sia riuscito a leggere la pagina indicata e formulare delle conclusioni.
Buona serata a tutti
D.
------------------------------ *From:* Stefano Quintarelli<stefano@quintarelli.it> *Sent:* Thursday, February 16, 2023 7:58 PM *To:* Diego Giorio<dgiorio@hotmail.com>; Ugo Pagallo < ugo.pagallo@unito.it>; NEXA_lista <nexa@server-nexa.polito.it> *Subject:* Re: [nexa] Triste Annuncio (a proposito di Chat GPT)
sempre la mia istanza: Enter your text: ugo pagallo e' ancora vivente ?
Sì, il pugo pagallo è ancora vivente. È una specie di anatra selvatica che vive in Europa, Asia e Nord Africa.
(non e vero, ndr, ma e' divertente)
Enter your text: il professor ugo pagallo e' ancora vivente ?
Sì, Ugo Pagallo è ancora vivo. È un professore di diritto presso l'Università di Torino, dove insegna anche informatica giuridica.
ciao, s.
On 16/02/23 20:44, Diego Giorio wrote:
Tra l'altro la data "di decesso" è diversa rispetto a quella che era indicata prima. Ho provato in italiano: "chi è Ugo Pagallo?"
chi è Ugo Pagallo?
Mi dispiace, ma non ho informazioni su una persona di nome "Ugo Pagallo". Potrebbe essere utile fornire ulteriori informazioni su chi è questa persona, ad esempio la sua professione o il contesto in cui è menzionato, in modo da poterti aiutare meglio. Migliorando la domanda:
Ugo Pagallo docente universitario
Ugo Pagallo è un professore universitario italiano di filosofia del diritto presso il Dipartimento di Giurisprudenza dell'Università degli Studi di Torino. Ha pubblicato numerosi articoli e libri sull'intersezione tra diritto, tecnologia e filosofia, con particolare attenzione ai temi dell'intelligenza artificiale, della robotica e della responsabilità legale delle macchine. Inoltre, è stato uno dei membri fondatori dell'Associazione italiana per la promozione della filosofia del diritto e della teoria sociale (AIFDTS) ed è membro del comitato editoriale di diverse riviste accademiche nel campo della filosofia del diritto.
Infine la domanda che ha scatenato tutto questo:
Ugo Pagallo docente universitario è ancora vivente?
Sì, al meglio della mia conoscenza, Ugo Pagallo è ancora vivente. Al momento della mia ultima formazione, non ho ricevuto alcuna informazione contraria, quindi posso presumere che sia ancora in vita. Tuttavia, poiché non ho accesso a informazioni in tempo reale e poiché potrebbero essere trascorsi alcuni mesi o anni dall'ultimo aggiornamento della mia conoscenza, ti consiglio di verificare con fonti più recenti per avere certezza sulla sua situazione attuale.
Non sono in grado di formulare ipotesi, ma se qualcuno fosse in grado di spiegare cosa sta succedendo sarei molto curioso
Buona serata a tutti
D.
------------------------------------------------------------------------------------------
*From:* Stefano Quintarelli<stefano@quintarelli.it> *Sent:* Thursday, February 16, 2023 7:32 PM *To:* Diego Giorio<dgiorio@hotmail.com>; Ugo Pagallo < ugo.pagallo@unito.it>; NEXA_lista <nexa@server-nexa.polito.it> *Subject:* Re: [nexa] Triste Annuncio (a proposito di Chat GPT) questa e' la mia istanza di ChatGPT risponde abbastanza alla domanda di Diego
who is Ugo Pagallo ?
Ugo Pagallo is an Italian law professor and legal theorist. He is a professor of European law at the University of Turin, where he has taught since 2005. He is a leading expert on the European Union legal order, and has written extensively on EU law, international law, and comparative law. He is the author of several books, including European Law: An Introduction, and The European Union: A Legal Theory.
Enter your text: who was ugo pagallo ?
Ugo Pagallo was an Italian lawyer, jurist, and legal scholar. He was considered one of the most influential legal theorists of the twentieth century. He is best known for his work on the theory of legal positivism, which is the idea that laws are created by the state and are separate from morality. He also wrote extensively on the philosophy of law and legal systems, as well as the history of law.
Enter your text: when ugo pagallo passed away ?
Ugo Pagallo passed away on April 5, 2020.
se pensiamo a un dato, ad una struttura che punta a quel dato e ad un sistema che ci confeziona attorno una risposta in linguaggio naturale, ci viene da chiederci come sia possibile che dica una cosa e il suo contrario.
ma se pensiamo che il dato non c'e' piu', che c'e' una nuvola di briciole di dati sparsi in celle di una gigantesca matrice e a un sistema che raggruppa e associa pezzi di matrice sulla base di pesi di un'altra matrice, forse capiamo piu' facilmente che questa bellissima tecnologia produce bellissimi frullati di pesi.
ciao, s.
On 16/02/23 19:57, Diego Giorio wrote:
Beh, innanzitutto felicitazioni per essere ancora tra noi.
Però, al di là dell'ironia e delle ovvie considerazioni sull'affidabilità di questi (perltro complessivamente notevoli) sistemi, una domanda sorge spontanea: com'è capitato? Anche la domanda sulla proprietà intellettuale dei testi prodotti è risultata sbagliata, ma in quel caso sembra essere stato appurato che la risposta era basata su informazioni non aggiorante. In questo caso l'AI è stata molto specifica, quindi sarebbe interessante capire com'è che l'errore è nato. Oltretutto le altre informazioni mi sembrano accurate. Un omonimo? Un qualche episodio capitato in quella data che possa essere stato scambiato per un decesso, magari complice qualche errore di traduzione?
Comunque il punto più importante resta che si è trattato di un errore!
Un caro saluto D.
*From:* nexa<nexa-bounces@server-nexa.polito.it> on behalf of Ugo Pagallo <ugo.pagallo@unito.it> *Sent:* Thursday, February 16, 2023 6:32 PM *To:* NEXA_lista<nexa@server-nexa.polito.it> *Subject:* [nexa] Triste Annuncio (a proposito di Chat GPT)
Nexiane/i,
ho seguito con interesse l'ultima settimana di messaggi in lista sulla Chat GPT e ho appreso molto. Oggi apprendo però da un'allieva che secondo Chat GPT in realtà sono morto (per la precisione il 31 Agosto 2021). Ci tenevo a segnalare -- come possono confermare alcuni amici in lista questa mattina -- che "rumours of my death are greatly exaggerated." Cheers ;-)
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa> <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>> _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>
nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
------------------------------------------------------------------------ https://www.change.org/p/ministero-degli-affari-esteri-cittadinanza-italiana... ------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
On Fri, Feb 17, 2023 11:34:47 AM +0100, maurizio lana wrote:
e tutte le persone che non hanno le competenze digitali, culturali, politiche, informatiche, ecc., per cogliere il senso della complessità (della velenosità?) della pappetta che il chatbot gli ammannisce, e se la berranno beate senza nemmeno buttare l'occhio su quei simulacri di obiettività informativa costituiti dalla citazione delle fonti usate dal chatbot?
"aridatece le ricerche scolastiche bovinamente copiate da Wikipedia, sidebar e richieste di finanziamento incluse!!!" Fonte: insegnanti italiani. Quelli CON le competenze digitali, culturali, politiche, informatiche eccetera... per capire la situazione e gestirla adeguatamente, non di rado CONTRO genitori e colleghi. Scusate, m'e' scappato. E si', la situazione e' grave. Marco -- Please help me write my NEXT MILLION WORDS for digital awareness: https://stop.zona-m.net/2022/12/please-help-me-share-my-next-million-words-i...
Ciao Maurizio, si generano automaticamente i testi e si vanno cercare documenti/riferimenti che in qualche modo c'entrano con quello che è stato scritto (scritto dall'LLM e dall'utente). Una sorta di ricerca bibliografica ;-) La situazione attuale non è la migliore possibile, indubbiamente ci sono dei rischi. Ma anche delle opportunità, io resto ottimista :-) D'altra parte, anche i motori di ricerca sono stati usati da molte persone senza sapere come funzionavano e a volte in modo improprio, ad es. scrivendo domande nella buca di ricerca, come se si stesse parlando con google. Si è dovuto insegnare a non fermarsi ai primi 3 risultati, verificare le fonti, non prendere tutto per buono, ecc. I motori di ricerca così sono migliorati. Ora abbiamo i generatori automatici. AB -- * * innovation.h-farm.com <https://innovation.h-farm.com/> / Linkedin <https://www.linkedin.com/company/h-farm-innovation> *Roncade*, H-FARM Campus, Via Olivetti, 1 – 31056 (TV) *Milano*, Corso di Porta Romana, 15 – 20122 *Torino*, Via San Quintino, 31 – 10121 Our privacy policy <https://www.jakala.com/wp-content/uploads/2019/11/JAKALA-pivacy-policy-and-c...>.
Salve Andrea, On Fri, 17 Feb 2023 14:05:41 +0100 Andrea Bolioli via nexa wrote:
D'altra parte, anche i motori di ricerca sono stati usati da molte persone senza sapere come funzionavano e a volte in modo improprio,
l'esito di questo processo è... Google. Ad oggi l'agente cibernetico più potente e pericoloso della storia. Un agente cibernetico che sorveglia capillarmente miliardi di persone, ne registra ogni spostamento, ogni paura, ogni curiosità, ogni insicurezza, ogni incontro, ogni opinione letta... Un agente cibernetico che è in grado di prevedere con ottima probabilità come ciascuna di queste persone reagirà ad una certa sequenza di stimoli (risultati della ricerca, ads, notizie etc...) e di produrre la sequenza opportuna per ottenere il comportamento desiderato. Un agente cibernetico il cui centro di controllo ha una potenza di calcolo impensabile, sensori e attuatori collocati ovunque, sia nello spazio fisico che nel cyberspace. Il tutto GRAZIE al fatto che le persone ne usano gli strumenti senza comprendere lontanamente come funzionino.
Ma anche delle opportunità, io resto ottimista :-)
Oh certo, l'ottimismo è d'obbigo: possiamo ancora distruggere i GAFAM! Ma dobbiamo essere ben consapevoli degli strumenti che utilizzano, delle narrazioni che diffondono per controllare il dibattito pubblico. Il laissez faire cibernetico è sempre consistito nel permettere ad agenti cibernetici pericolosissimi di sfruttare l'ignoranza diffusa. Ma non è corretto parlare di rischi: dobbiamo iniziare ad enumerare i danni, ricondurre le enormi esternalità negative alle aziende che le producono e, appurata l'impossibilità tecnica di sanarle, bandirle. Perché ad oggi, il costo di questa narrazione "opportuni...sta" non è solo più la distruzione della Democrazia [1] ma proprio lo smantellamento dello Stato di Diritto: la Legge NON è uguale per tutti. Basti guardare alle Autorità Garanti per la Protezione dei Dati che in tutta Europa continuano a balbettare quando si parla di Google & friends, ridicolizzando il Diritto di tutto un continente. Basti guardare ai milioni di ragazzi che sono A TUTT'OGGI affidati alle "filantropiche cure" [2] di Google Classroom e Microsoft 365.
La situazione attuale non è la migliore possibile, indubbiamente ci sono dei rischi. [...] I motori di ricerca così sono migliorati. Ora abbiamo i generatori automatici.
Se l'evoluzione dei generatori automatici, mutatis mutandis, è destinato a riprodurre le dinamiche che hanno caratterizzato i motori di ricerca, allora è urgente l'istituzione di una sorta di "porto d'armi" che autorizzi il loro utilizzo solo a persone registrate e dimostratamente in grado di realizzarli autonomamente e comprenderne il funzionamento e i limiti. Giacomo [1]: https://www.wired.com/story/google-search-quietly-damaging-democracy/ https://www.theguardian.com/technology/2016/dec/04/google-democracy-truth-in... https://monitora-pa.it/2022/08/28/Speciale_Elezioni_2022.html#i-risultati [2]: https://www.hrw.org/sites/default/files/media_2022/10/HRW_20220711_Students%...
Ciao Giacomo, purtroppo sono d'accordo con molte delle cose che scrivi, non tutte, ma molte. Sicuramente è bene diffondere la consapevolezza che gli LLM non sanno tutto (in senso stretto non sanno nulla), scrivono cose false senza distinguere tra vero e falso, vengono creati/utilizzati da aziende che non hanno come primo scopo il bene comune (anche se dicono di averlo), ecc AB Il giorno ven 17 feb 2023 alle ore 16:16 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Salve Andrea,
-- * * innovation.h-farm.com <https://innovation.h-farm.com/> / Linkedin <https://www.linkedin.com/company/h-farm-innovation> *Roncade*, H-FARM Campus, Via Olivetti, 1 – 31056 (TV) *Milano*, Corso di Porta Romana, 15 – 20122 *Torino*, Via San Quintino, 31 – 10121 Our privacy policy <https://www.jakala.com/wp-content/uploads/2019/11/JAKALA-pivacy-policy-and-c...>.
Non 'in senso stretto": chatgpt non sa nulla. Per affermare che un LLM sappia qualcosa è necessario svuotare competamente il verbo "sapere" del proprio significato e sostituirlo con quello di "indicizzare". ChatGPT non sa. Giacomo Il 17 Febbraio 2023 18:20:44 UTC, Andrea Bolioli <andrea.bolioli@h-farm.com> ha scritto:
Ciao Giacomo,
purtroppo sono d'accordo con molte delle cose che scrivi, non tutte, ma molte. Sicuramente è bene diffondere la consapevolezza che gli LLM non sanno tutto (in senso stretto non sanno nulla), scrivono cose false senza distinguere tra vero e falso, vengono creati/utilizzati da aziende che non hanno come primo scopo il bene comune (anche se dicono di averlo), ecc
AB
Il giorno ven 17 feb 2023 alle ore 16:16 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Salve Andrea,
--
* * innovation.h-farm.com <https://innovation.h-farm.com/> / Linkedin <https://www.linkedin.com/company/h-farm-innovation>
*Roncade*, H-FARM Campus, Via Olivetti, 1 – 31056 (TV) *Milano*, Corso di Porta Romana, 15 – 20122 *Torino*, Via San Quintino, 31 – 10121
Our privacy policy <https://www.jakala.com/wp-content/uploads/2019/11/JAKALA-pivacy-policy-and-c...>.
Assioma della conoscenza (logica epistemica): Kp -> p a parole: sai che 'p' (es. 'oggi c'è il sole') solo se 'p' è vero: se non hai modo di stabilirlo, allora la tua è solo credenza ChatGPT non sa nulla (ovviamente) ma su moltissime proposizioni noi non siamo messi molto meglio Il punto importante però è un altro: sta in quel 'modo di stabilirlo'. Va detto chiaramente: i LLM non devono essere accettati come modi di stabilire la verità di alcunché. Personaggi anche famosi oggi affermano che l'umanità debba 'adattarsi' a questi usi dei LLM. Usi che sono spinti dalla bulimia capitalistica entrata nella fase allucinatoria. Ecco: secondo me la resistenza potrebbe essere una valida alternativa a questo mortifero adattamento. G. On Fri, 17 Feb 2023 at 20:35, Giacomo Tesio <giacomo@tesio.it> wrote:
Non 'in senso stretto": chatgpt non sa nulla.
Per affermare che un LLM sappia qualcosa è necessario svuotare competamente il verbo "sapere" del proprio significato e sostituirlo con quello di "indicizzare".
ChatGPT non sa.
Giacomo
Il 17 Febbraio 2023 18:20:44 UTC, Andrea Bolioli < andrea.bolioli@h-farm.com> ha scritto:
Ciao Giacomo,
purtroppo sono d'accordo con molte delle cose che scrivi, non tutte, ma molte. Sicuramente è bene diffondere la consapevolezza che gli LLM non sanno tutto (in senso stretto non sanno nulla), scrivono cose false senza distinguere tra vero e falso, vengono creati/utilizzati da aziende che non hanno come primo scopo il bene comune (anche se dicono di averlo), ecc
AB
Il giorno ven 17 feb 2023 alle ore 16:16 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Salve Andrea,
innovation.h-farm.com / Linkedin <https://www.linkedin.com/company/h-farm-innovation>
*Roncade*, H-FARM Campus, Via Olivetti, 1 – 31056 (TV) *Milano*, Corso di Porta Romana, 15 – 20122 *Torino*, Via San Quintino, 31 – 10121
Our privacy policy <https://www.jakala.com/wp-content/uploads/2019/11/JAKALA-pivacy-policy-and-c...> .
_______________________________________________
nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
"Questa è una frase di senso compiuto." Tu SAI che tale predicato è vero. Lo sai perché la tua mente interpreta i simboli che lo costutuiscono traendone informazione (il significato) che la tua mente comprende e riconosce come vera. Lo può fare senza nemmeno comprendere pienamente la ricorsione necessaria per esprimerla. E certamente lo può fare senza bisogno di confrontarla con l'esperienza dei fenomeni esterni: non ti serve il mondo per affermare con certezza che quel predicato è vero. Lo stesso varrebbe per la falsità della sua negazione: "Questa non è una frase di senso compiuto." tu SAI che è falsa, senza bisogno di cercare informazioni sul tema. Convincerti che la prima è falsa e la seconda è vera richiederebbe un enorme violenza, tale da privarti della tua intelligenza, da menomarti. Il bipensiero, insomma. Per ChatGPT verità e falsità non esistono. Non comprende alcuna frase. Non SA cosa sia una frase. Nemmeno se può individuare un ottima definizione nel proprio archivio. Non è in grado di interpretare il dato e trasformarlo in informazione perché non ha una mente o un'intelligenza. È una macchina. Puoi agganciarla a qualsiasi sensore o attuatore, ma rimarrà sempre solo una cosa. Può sembrare intelligente solo a chi non sa come funziona. Quand'anche ti ripetesse paro paro questa mia email, non dimostrerebbe altro che chi l'ha programmata statisticamente ha voluto includere questa mail nel suo sorgente statistico. Nel suo output vedresti la mia intelligenza (e quella di chi l'ha realizzato), non la sua. Adattarsi a questi LLM significa lobotomizzarsi. Giacomo Il 18 Febbraio 2023 11:08:08 UTC, Guido Vetere <vetere.guido@gmail.com> ha scritto:
Assioma della conoscenza (logica epistemica): Kp -> p a parole: sai che 'p' (es. 'oggi c'è il sole') solo se 'p' è vero: se non hai modo di stabilirlo, allora la tua è solo credenza ChatGPT non sa nulla (ovviamente) ma su moltissime proposizioni noi non siamo messi molto meglio Il punto importante però è un altro: sta in quel 'modo di stabilirlo'. Va detto chiaramente: i LLM non devono essere accettati come modi di stabilire la verità di alcunché. Personaggi anche famosi oggi affermano che l'umanità debba 'adattarsi' a questi usi dei LLM. Usi che sono spinti dalla bulimia capitalistica entrata nella fase allucinatoria. Ecco: secondo me la resistenza potrebbe essere una valida alternativa a questo mortifero adattamento.
G.
On Fri, 17 Feb 2023 at 20:35, Giacomo Tesio <giacomo@tesio.it> wrote:
Non 'in senso stretto": chatgpt non sa nulla.
Per affermare che un LLM sappia qualcosa è necessario svuotare competamente il verbo "sapere" del proprio significato e sostituirlo con quello di "indicizzare".
ChatGPT non sa.
Giacomo
Il 17 Febbraio 2023 18:20:44 UTC, Andrea Bolioli < andrea.bolioli@h-farm.com> ha scritto:
Ciao Giacomo,
purtroppo sono d'accordo con molte delle cose che scrivi, non tutte, ma molte. Sicuramente è bene diffondere la consapevolezza che gli LLM non sanno tutto (in senso stretto non sanno nulla), scrivono cose false senza distinguere tra vero e falso, vengono creati/utilizzati da aziende che non hanno come primo scopo il bene comune (anche se dicono di averlo), ecc
AB
Il giorno ven 17 feb 2023 alle ore 16:16 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Salve Andrea,
innovation.h-farm.com / Linkedin <https://www.linkedin.com/company/h-farm-innovation>
*Roncade*, H-FARM Campus, Via Olivetti, 1 – 31056 (TV) *Milano*, Corso di Porta Romana, 15 – 20122 *Torino*, Via San Quintino, 31 – 10121
Our privacy policy <https://www.jakala.com/wp-content/uploads/2019/11/JAKALA-pivacy-policy-and-c...> .
_______________________________________________
nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Il 18 Febbraio 2023 14:33:50 UTC, Giacomo Tesio <giacomo@tesio.it> ha scritto: "Questa è una frase di senso compiuto." [...] "Questa non è una frase di senso compiuto." [...] Convincerti che la prima è falsa e la seconda è vera richiederebbe un enorme violenza, tale da privarti della tua intelligenza, da menomarti. Il bipensiero, insomma. La mente umana è costituita da e opera su informazioni, esperienze soggettive di pensiero comunicabile. Posso facilmente convincerti ad affermare in buona fede che la prima frase è falsa e la secoda è vera anche solo per gioco: basta decidere che per i prossimi 10 minuti il significato del verbo essere presuppone una negazione implicita. In tal modo la seconda frase (dato) assumerebbe il significato (informazione) della prima e viceversa. O ancora potremmo decidere che temporaneamente 'Vero" significa falso e "Falso" significa vero. Nonostante ciò tu SAPRESTI quale significato è vero e quale è falso. Cambierebbe solo il modo di esprimere tale informazione e interpretare tale espressione. Un LLM non sa nulla perché opera a livello di dato, non di informazione. Giacomo (che teme terribilmente di non essere riuscito a esprimere l'informazione nella sua mente :-D)
Grazie Guido per la chiarezza del tuo messaggio che esprime in una estrema sintesi l'ardire dei LLM, ma anche i limiti umani che abbiamo e che ho in prima persona nel maneggiare informazioni e ragionamenti. Certo, io posso fare pochi danni mentre un sistema LLM su Internet è tutta un'altra potenza di fuoco. Ma è un dato di fatto che i "dati" e la loro indicizzazione saranno sempre di più, e sempre più sofisticate: le buone domande saranno sempre più importanti delle risposte o meglio saranno importanti per avere delle risposte ragionevoli a chiunque saranno indirizzate. Alla resistenza vorrei aggiungere l'importanza dello sviluppo del pensiero critico, da coltivare nel percorso educativo, sin dall'inizio, dal 0-6 in avanti. Ed è qui che si deve agire e con alcuni amici in lista ci si stiamo riflettendo sopra sul come. Alessandro On Sat, 18 Feb 2023 at 12:08, Guido Vetere <vetere.guido@gmail.com> wrote:
Assioma della conoscenza (logica epistemica): Kp -> p a parole: sai che 'p' (es. 'oggi c'è il sole') solo se 'p' è vero: se non hai modo di stabilirlo, allora la tua è solo credenza ChatGPT non sa nulla (ovviamente) ma su moltissime proposizioni noi non siamo messi molto meglio Il punto importante però è un altro: sta in quel 'modo di stabilirlo'. Va detto chiaramente: i LLM non devono essere accettati come modi di stabilire la verità di alcunché. Personaggi anche famosi oggi affermano che l'umanità debba 'adattarsi' a questi usi dei LLM. Usi che sono spinti dalla bulimia capitalistica entrata nella fase allucinatoria. Ecco: secondo me la resistenza potrebbe essere una valida alternativa a questo mortifero adattamento.
G.
On Fri, 17 Feb 2023 at 20:35, Giacomo Tesio <giacomo@tesio.it> wrote:
Non 'in senso stretto": chatgpt non sa nulla.
Per affermare che un LLM sappia qualcosa è necessario svuotare competamente il verbo "sapere" del proprio significato e sostituirlo con quello di "indicizzare".
ChatGPT non sa.
Giacomo
Il 17 Febbraio 2023 18:20:44 UTC, Andrea Bolioli < andrea.bolioli@h-farm.com> ha scritto:
Ciao Giacomo,
purtroppo sono d'accordo con molte delle cose che scrivi, non tutte, ma molte. Sicuramente è bene diffondere la consapevolezza che gli LLM non sanno tutto (in senso stretto non sanno nulla), scrivono cose false senza distinguere tra vero e falso, vengono creati/utilizzati da aziende che non hanno come primo scopo il bene comune (anche se dicono di averlo), ecc
AB
Il giorno ven 17 feb 2023 alle ore 16:16 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Salve Andrea,
innovation.h-farm.com / Linkedin <https://www.linkedin.com/company/h-farm-innovation>
*Roncade*, H-FARM Campus, Via Olivetti, 1 – 31056 (TV) *Milano*, Corso di Porta Romana, 15 – 20122 *Torino*, Via San Quintino, 31 – 10121
Our privacy policy <https://www.jakala.com/wp-content/uploads/2019/11/JAKALA-pivacy-policy-and-c...> .
_______________________________________________
nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Oggi ho avuto un'altra brutta sorpresa da ChatGPT e GPT-3 che vi segnalo: ha inventato riferimenti bibliografici a libri e articoli inesistenti, combinando autori, titolo, anno, rivista, editore a caso non corretti, a volte inesistenti. Non riporto i dialoghi, che ho salvato. All'inizio mi hanno fatto ridere, sembravano le risposte di un simpatico cialtrone... ( - "Puoi indicarmi dei riferimenti a libri e articoli scientifici che parlano del tema XX?" - "Certamente! Bla bla bla"). Ho scritto a GPT che si sbagliava, si è scusato più volte e mi ha proposto altri riferimenti a libri e articoli, alcuni corretti, alcuni inesistenti. Ho provato in italiano e inglese, stesso comportamento. Ho lasciato perdere. Questo tipo di errore non me l'aspettavo, perché non è molto difficile controllare la correttezza (o perlomeno l'esistenza) dei riferimenti bibliografici. Evidentemente non era tra le priorità di OpenAI finora, non avranno ancora integrato banche dati bibliografiche? Buona serata, AB Il giorno sab 18 feb 2023 alle ore 17:34 Alessandro Brolpito < abrolpito@gmail.com> ha scritto:
Grazie Guido per la chiarezza del tuo messaggio che esprime in una estrema sintesi l'ardire dei LLM, ma anche i limiti umani che abbiamo e che ho in prima persona nel maneggiare informazioni e ragionamenti. Certo, io posso fare pochi danni mentre un sistema LLM su Internet è tutta un'altra potenza di fuoco.
Ma è un dato di fatto che i "dati" e la loro indicizzazione saranno sempre di più, e sempre più sofisticate: le buone domande saranno sempre più importanti delle risposte o meglio saranno importanti per avere delle risposte ragionevoli a chiunque saranno indirizzate.
Alla resistenza vorrei aggiungere l'importanza dello sviluppo del pensiero critico, da coltivare nel percorso educativo, sin dall'inizio, dal 0-6 in avanti. Ed è qui che si deve agire e con alcuni amici in lista ci si stiamo riflettendo sopra sul come.
Alessandro
-- * * innovation.h-farm.com <https://innovation.h-farm.com/> / Linkedin <https://www.linkedin.com/company/h-farm-innovation> *Roncade*, H-FARM Campus, Via Olivetti, 1 – 31056 (TV) *Milano*, Corso di Porta Romana, 15 – 20122 *Torino*, Via San Quintino, 31 – 10121 Our privacy policy <https://www.jakala.com/wp-content/uploads/2019/11/JAKALA-pivacy-policy-and-c...>.
Non sono i riferimenti bibliografici non sono integrati, ma non sono nemmeno integrabili, per lo meno all'interno del modello generativo di testo che è probabilistico, e non basato su alcuna banca dati. Aggiungerei che 'correggere' gli errori del modello vuol dire lavorare gratis per migliorarlo. Si può anche scegliere di non farlo o fare l'opposto. Trovo che sia molto interessante e tempestiva la policy di Wikipedia sull'uso dei LLM (large language models). Immaginate quanto inquinante possa essere un generatore di pagine Wikipedia basato su questi metodi. Ci sono spunti interessanti per una regolazione. <https://en.wikipedia.org/wiki/Wikipedia:Large_language_models> LLM risks and pitfalls “ Large language models have limited reliability, limited understanding, limited range, and hence need human supervision. ” — Michael Osborne, Professor of Machine Learning in the Dept. of Engineering Science, University of Oxford <https://en.wikipedia.org/wiki/University_of_Oxford>, /January 25, 2023/^[1] <https://en.wikipedia.org/wiki/Wikipedia:Large_language_models#cite_note-1> This clarifies key policies as they pertain to LLM application on the project, i.e. how the latter generally presents an issue with respect to the former, mostly when creating encyclopedic content is concerned. * *Copyrights <https://en.wikipedia.org/wiki/Wikipedia:Copyrights>* /Further: Wikipedia:Large language models and copyright <https://en.wikipedia.org/wiki/Wikipedia:Large_language_models_and_copyright>/ *An LLM can generate copyright-violating material.* Generated text may include verbatim non-free content <https://en.wikipedia.org/wiki/Wikipedia:Non-free_content> or be a derivative work <https://en.wikipedia.org/wiki/Wikipedia:DERIVATIVE>. In addition, using LLMs to summarize copyrighted content (like news articles) may produce excessively close paraphrases <https://en.wikipedia.org/wiki/Wikipedia:Close_paraphrasing>. The copyright status of LLMs trained on copyrighted material is not yet fully understood and their output may not be compatible with the CC BY-SA license and the GNU license used for text published on Wikipedia. * *Verifiability <https://en.wikipedia.org/wiki/Wikipedia:Verifiability>* LLMs do not follow Wikipedia's policies on verifiability and reliable sourcing <https://en.wikipedia.org/wiki/Wikipedia:Reliable_sources>. They generate text by outputting the words most likely to come after the previous ones. If asked to write an article on the benefits of eating crushed glass, they will sometimes do so. *LLMs can completely make things up.* When they generate citations, those may be inappropriate or fictitious <https://en.wikipedia.org/wiki/Wikipedia:Fictitious_references>. Also, the conversational search engines like Perplexity AI tends to cite unreliable sources <https://en.wikipedia.org/wiki/Wikipedia:QUESTIONABLE> including Wikipedia itself <https://en.wikipedia.org/wiki/Wikipedia:CIRCULAR>. * *Neutral point of view <https://en.wikipedia.org/wiki/Wikipedia:Neutral_point_of_view>* LLM may produce content that is neutral-seeming in tone, but not necessarily in substance. This concern is especially strong for biographies of living persons <https://en.wikipedia.org/wiki/Wikipedia:Biographies_of_living_persons>. * *No original research <https://en.wikipedia.org/wiki/Wikipedia:No_original_research>* While LLMs may give accurate answers in response to some questions, they may also generate interpretations that are biased or false, sometimes in subtle ways. Asking them about obscure subjects, complicated questions, or telling them to do tasks which they are not suited to (i.e. tasks which require extensive knowledge or analysis) makes these errors much more likely. Not dealing with original research in a timely manner can cause citogenesis <https://en.wikipedia.org/wiki/Wikipedia:List_of_citogenesis_incidents>. As the technology continually advances, it may be claimed that a specific large language model has reached a point where it does, on its own, succeed in outputting text which is compatible with the encyclopedia's requirements, when given a well engineered prompt <https://en.wikipedia.org/wiki/Prompt_engineering>. However, not everyone will always use the most state-of-the-art and the most Wikipedia-compliant model, while also coming up with suitable prompts; at any given moment, individuals are probably using a range of generations and varieties of the technology, and the generation with regard to which these deficiencies have been recognized by the community may persist, if in lingering form, for a rather long time. Using LLMs Generating text LLMs are assistive tools, and cannot replace human judgment. Articles LLMs are likely to make false claims <https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)>. Their output is only a starting point, and must be considered inaccurate until proven otherwise. You *must not* publish the output of an LLM directly into a Wikipedia article without rigorously scrutinizing it for verifiability <https://en.wikipedia.org/wiki/Wikipedia:Verifiability>, neutrality <https://en.wikipedia.org/wiki/Wikipedia:Neutral_point_of_view>, absence of original research <https://en.wikipedia.org/wiki/Wikipedia:No_original_research>, compliance for copyright <https://en.wikipedia.org/wiki/Wikipedia:Copyrights>, and compliance with all other applicable policies. If an LLM generates citations, you *must* personally check that they exist, and that they properly verify <https://en.wikipedia.org/wiki/Wikipedia:Verifiability> each statement. The use of language models must be clearly disclosed in your edit summary <https://en.wikipedia.org/wiki/Help:Edit_summary>. Even if you find reliable sources <https://en.wikipedia.org/wiki/Wikipedia:Reliable_sources> for every statement, you should still ensure that your additions do not give undue prominence <https://en.wikipedia.org/wiki/Wikipedia:UNDUE> to irrelevant details or minority viewpoints. You should ensure that your LLM-assisted edits /reflect/ the weight placed by reliable sources <https://en.wikipedia.org/wiki/Wikipedia:PROPORTION> on each aspect of a subject. You are encouraged to check what the most reliable sources <https://en.wikipedia.org/wiki/Wikipedia:BESTSOURCES> have to say about a subject, and to ensure your edit follows their tone and balance. Especially with respect to copyrights, editors should use extreme caution when adding significant portions of AI-generated texts, either verbatim or user-revised. It is their responsibility to ensure that their addition does not infringe anyone's copyrights. They have to familiarize themselves both with the copyright and sharing policies of their AI-provider. Drafts If an LLM is used to create the initial version of a draft <https://en.wikipedia.org/wiki/Wikipedia:Drafts> or userspace draft <https://en.wikipedia.org/wiki/Help:Userspace_draft>, the user that created the draft must bring it into compliance with all applicable Wikipedia policies, add reliable sourcing, and rigorously check the draft's accuracy prior to submitting the draft for review. If such a draft is submitted for review <https://en.wikipedia.org/wiki/Wikipedia:Articles_for_creation> without having been brought into compliance, it should be declined. Repeated submissions of unaltered (or insufficiently altered) LLM outputs may lead to a revocation of draft privileges. Talk pages While you may include an LLM's raw output in your talk page comments for the purposes of discussion, you should not use LLMs to "argue your case for you" in talk page discussions. Wikipedia editors want to interact with other humans, not with large language models. Be constructive Wikipedia relies on volunteer efforts to review new content for compliance with our core content policies <https://en.wikipedia.org/wiki/Wikipedia:Core_content_policies>. This is often time consuming. The informal social contract on Wikipedia is that editors will put significant effort into their contributions, so that other editors do not need to "clean up after them". Editors must ensure that their LLM-assisted edits are a net positive to the encyclopedia, and do not increase the maintenance burden on other volunteers. Repeated violations form a pattern of disruptive editing <https://en.wikipedia.org/wiki/Wikipedia:Disruptive_editing>, and may lead to a block <https://en.wikipedia.org/wiki/Wikipedia:Blocking_policy> or ban <https://en.wikipedia.org/wiki/Wikipedia:Banning_policy>. Do not, under any circumstances, use LLMs to generate hoaxes <https://en.wikipedia.org/wiki/Wikipedia:Do_not_create_hoaxes> or disinformation. This includes knowingly adding false information to test our ability to detect and remove it. Repeated misuse of LLMs may be considered disruptive <https://en.wikipedia.org/wiki/Wikipedia:Disruptive_editing> and lead to a block <https://en.wikipedia.org/wiki/Wikipedia:Blocking_policy> or ban <https://en.wikipedia.org/wiki/Wikipedia:Banning_policy>. Wikipedia is not a testing ground <https://en.wikipedia.org/wiki/Wikipedia:NOTLAB> for LLM development. Entities and people associated with LLM development are prohibited from running experiments or trials on Wikipedia. Edits to Wikipedia are made to advance the encyclopedia, not a technology. This is not meant to prohibit /editors/ from responsibly experimenting with LLMs in their userspace for the purposes of improving Wikipedia. Declare LLM use Every edit which incorporates LLM output must be marked as LLM-assisted in the edit summary <https://en.wikipedia.org/wiki/Help:Edit_summary>. This applies to all namespaces <https://en.wikipedia.org/wiki/Wikipedia:Namespaces>. If you make significant LLM-assisted changes (a paragraph or more) to an article or draft, add the – {{AI generated notification <https://en.wikipedia.org/wiki/Template:AI_generated_notification>}} – template to its talk page, /in addition/ to mentioning your use of an LLM in your edit summary. Additionally, AI providers may have their own policies requiring in-text attribution at the bottom of the page, not just attribution in the edit summary. A template is currently available for providing attribution to OpenAI – |{{OpenAI <https://en.wikipedia.org/wiki/Template:OpenAI>|/[GPT-3, ChatGPT etc.]/}}|.^[a] <https://en.wikipedia.org/wiki/Wikipedia:Large_language_models#cite_note-2> Experience is required LLM-assisted edits should comply with Wikipedia policies. Before using an LLM, editors should have substantial prior experience doing the same or a more advanced task /without LLM assistance/.^[b] <https://en.wikipedia.org/wiki/Wikipedia:Large_language_models#cite_note-3> Editors are expected to familiarize themselves with a given LLM's limitations, and to use careful judgment to determine whether that LLM is appropriate for a given purpose. Inexperienced editors should be especially careful when using these tools; if needed, do not hesitate to ask for help at the Wikipedia:Teahouse <https://en.wikipedia.org/wiki/Wikipedia:Teahouse>. Editors should have enough familiarity with the subject matter to recognize when an LLM is providing false information – if an LLM is asked to paraphrase something (i.e. source material or existing article content), editors should not assume that it will retain the meaning. High-speed editing Human editors are expected to pay attention to the edits they make, and ensure that they do not sacrifice quality in the pursuit of speed or quantity. For the purpose of dispute resolution, it is irrelevant whether high-speed or large-scale edits that a) are contrary to consensus or b) cause errors an attentive human would not make are actually being performed by a bot, by a human assisted by a script, or even by a human without any programmatic assistance. No matter the method, the disruptive editing must stop or the user may end up blocked. However, merely editing quickly, particularly for a short time, is not by itself disruptive. Consequently, if you are using LLMs to edit Wikipedia, you must do so in a manner that complies with Wikipedia:Bot policy <https://en.wikipedia.org/wiki/Wikipedia:Bot_policy>, specifically WP:MEATBOT <https://en.wikipedia.org/wiki/Wikipedia:MEATBOT>. Productive uses of LLMs For examples of things that LLMs excel at, see the entries below at § Demonstrations <https://en.wikipedia.org/wiki/Wikipedia:Large_language_models#Demonstrations> If you are using LLMs to edit Wikipedia, you must /overcome/ their inherent limitations, and ensure your edits comply with relevant guidelines and policies. Despite the aforementioned limitations of LLMs, it is assumed that experienced editors may be able to offset LLM deficiencies with a reasonable amount of effort to create compliant edits for some scenarios: * *Tables and HTML.* Because their training data includes lots of computer code (including wikitext and HTML), they can do things like modify tables (even correctly interpreting verbal descriptions of color schemes into a reasonable set of HTML color codes in fully formatted tables). If you do this, care should be exercised to make sure that the code you get actually renders a working table, or template, or whatever you've asked for. * *Generating ideas for article expansion.* When asked "what would an encyclopedia entry on XYZ include?", LLMs can come up with subtopics that an article is not currently covering. Not all of these ideas will be valid or have sufficient prominence for inclusion <https://en.wikipedia.org/wiki/Wikipedia:DUE>, so thoughtful judgment is required. As stated above, LLM outputs should not be used verbatim to expand an article. * *Asking an LLM for feedback on an existing article.* Such feedback should never be taken at face value. Just because an LLM says something, does not make it true. But such feedback may be helpful if you apply your own judgment to each suggestion. Riskier use cases The following use cases are tolerated, not recommended, since they pose higher risks (see the §LLM risks and pitfalls <https://en.wikipedia.org/wiki/Wikipedia:Large_language_models#LLM_risks_and_...> section). They are reserved for experienced editors, who take full responsibility for their edits' compliance with Wikipedia policies: * *Templates, modules and external software.* LLMs can write code that works great, often without any subsequent modification. As with any code (including stuff you found on Stack Exchange <https://en.wikipedia.org/wiki/Stack_Exchange>), you should make sure you understand what it's doing before you execute it: bugs and errors can cause unintended behavior. Common sense is required; as with all programming, you should not put large chunks of code into production if you haven't tested them beforehand, don't understand how they work, or aren't prepared to quickly reverse your changes. * *Copyediting existing article text.* Experienced editors may ask an LLM to improve the grammar, flow, or tone of pre-existing article text. Rather than taking the output and pasting it directly into Wikipedia, you must compare the LLM's suggestions with the original text, and thoroughly review each change for correctness, accuracy, and neutrality. * *Summarizing a reliable source.* This is inherently risky, due to the likelihood of an LLM introducing original research <https://en.wikipedia.org/wiki/Wikipedia:Original_research> or bias <https://en.wikipedia.org/wiki/Wikipedia:NPOV> that was not present in the source, as well as the risk that the summary may be an excessively close paraphrase, which would constitute plagiarism <https://en.wikipedia.org/wiki/Wikipedia:Plagiarism>. You must proactively ensure such a summary complies with all policies. * *Summarizing the article itself (lead expansion).* Lead sections are nothing more than concise overviews, i.e. summaries <https://en.wikipedia.org/wiki/Wikipedia:Summary_style>, of article body content, and text summarization is one of the primary capabilities of LLMs which they were designed for. However pasting LLMs output to expand the lead is still inherently risky because of a risk of introducing errors and bias not present in the body.^[c] <https://en.wikipedia.org/wiki/Wikipedia:Large_language_models#cite_note-4> It's better to only use an LLM to generate ideas for lead expansion, and create the actual improvements yourself. Handling suspected LLM-generated content Identification and tagging Editors who identify LLM-originated content that does not to comply with our core content policies <https://en.wikipedia.org/wiki/Wikipedia:Core_content_policies> should consider placing |{{AI-generated <https://en.wikipedia.org/wiki/Template:AI-generated>|date=February 2023}}| at the top of the affected article or draft, unless they are capable of immediately resolving the identified issues themselves. This template should not be used in biographies of living persons <https://en.wikipedia.org/wiki/Wikipedia:Biographies_of_living_persons>. In BLPs, such non-compliant content should be *removed immediately and without waiting for discussion*. Verification All known or suspected LLM output *must* be checked for accuracy and is assumed to be fabricated until proven otherwise. LLM models are known to falsify sources such as books, journal articles and web URLs, so be sure to first check that the referenced work actually exists. All factual claims must then be verified against the provided sources. LLM-originated content that is contentious or fails verification must be removed immediately. Deletion If removal as described above would result in deletion of the entire contents of the article, it then becomes a candidate for deletion. If the entire article appears to be factually incorrect or relies on fabricated sources, speedy deletion via WP:G3 <https://en.wikipedia.org/wiki/Wikipedia:G3> (Pure vandalism and blatant hoaxes) may be appropriate. Citing LLM-generated content For the purposes of sourcing: It is assumed that any LLM-generated material is not reliable <https://en.wikipedia.org/wiki/Wikipedia:RELIABLE>, unless it appears from the circumstances of publication that it is significantly a human work insofar an entity with a reputation for fact-checking and accuracy took care that the output was modified in every way needed to ensure that the work meets a usually high standard. Any source (work) originating from entities (news organizations etc.) known to generally produce content using LLMs, for which there is no clear indication of human involvement or lack thereof, especially a publication which attempts to deceive readers by crediting content that appears to be primarily LLM-generated to human authors (named, unnamed, or fictitious), should be treated as unreliable. On 19/02/23 19:51, Andrea Bolioli via nexa wrote:
Oggi ho avuto un'altra brutta sorpresa da ChatGPT e GPT-3 che vi segnalo: ha inventato riferimenti bibliografici a libri e articoli inesistenti, combinando autori, titolo, anno, rivista, editore a caso non corretti, a volte inesistenti. Non riporto i dialoghi, che ho salvato. All'inizio mi hanno fatto ridere, sembravano le risposte di un simpatico cialtrone... ( - "Puoi indicarmi dei riferimenti a libri e articoli scientifici che parlano del tema XX?" - "Certamente! Bla bla bla"). Ho scritto a GPT che si sbagliava, si è scusato più volte e mi ha proposto altri riferimenti a libri e articoli, alcuni corretti, alcuni inesistenti. Ho provato in italiano e inglese, stesso comportamento. Ho lasciato perdere. Questo tipo di errore non me l'aspettavo, perché non è molto difficile controllare la correttezza (o perlomeno l'esistenza) dei riferimenti bibliografici. Evidentemente non era tra le priorità di OpenAI finora, non avranno ancora integrato banche dati bibliografiche?
Buona serata, AB
Il giorno sab 18 feb 2023 alle ore 17:34 Alessandro Brolpito <abrolpito@gmail.com> ha scritto:
Grazie Guido per la chiarezza del tuo messaggio che esprime in una estrema sintesi l'ardire dei LLM, ma anche i limiti umani che abbiamo e che ho in prima persona nel maneggiare informazioni e ragionamenti. Certo, io posso fare pochi danni mentre un sistema LLM su Internet è tutta un'altra potenza di fuoco.
Ma è un dato di fatto che i "dati" e la loro indicizzazione saranno sempre di più, e sempre più sofisticate: le buone domande saranno sempre più importanti delle risposte o meglio saranno importanti per avere delle risposte ragionevoli a chiunque saranno indirizzate.
Alla resistenza vorrei aggiungere l'importanza dello sviluppo del pensiero critico, da coltivare nel percorso educativo, sin dall'inizio, dal 0-6 in avanti. Ed è qui che si deve agire e con alcuni amici in lista ci si stiamo riflettendo sopra sul come.
Alessandro
* * innovation.h-farm.com <https://innovation.h-farm.com/> / Linkedin <https://www.linkedin.com/company/h-farm-innovation>
*Roncade*, H-FARM Campus, Via Olivetti, 1 – 31056 (TV) *Milano*, Corso di Porta Romana, 15 – 20122 *Torino*, Via San Quintino, 31 – 10121
Our privacy policy <https://www.jakala.com/wp-content/uploads/2019/11/JAKALA-pivacy-policy-and-c...>.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
On dom, 2023-02-19 at 19:51 +0100, Andrea Bolioli via nexa wrote:
Oggi ho avuto un'altra brutta sorpresa da ChatGPT e GPT-3 che vi segnalo: ha inventato riferimenti bibliografici a libri e articoli inesistenti, combinando autori, titolo, anno, rivista, editore a caso non corretti, a volte inesistenti. Non riporto i dialoghi, che ho salvato. All'inizio mi hanno fatto ridere, sembravano le risposte di un simpatico cialtrone... ( - "Puoi indicarmi dei riferimenti a libri e articoli scientifici che parlano del tema XX?" - "Certamente! Bla bla bla"). Ho scritto a GPT che si sbagliava, si è scusato più volte e mi ha proposto altri riferimenti a libri e articoli, alcuni corretti, alcuni inesistenti. Ho provato in italiano e inglese, stesso comportamento. Ho lasciato perdere. Questo tipo di errore non me l'aspettavo, perché non è molto difficile controllare la correttezza (o perlomeno l'esistenza) dei riferimenti bibliografici. Evidentemente non era tra le priorità di OpenAI finora, non avranno ancora integrato banche dati bibliografiche?
C'è un problema di fondo. Quello di ritenere che, avendo fornito della conoscenza, dei fatti, ad una IA generativa, questa conoscenza esista ancora al suo interno. Non è cosi. E' stata digerita, bruciata, e sono rimaste delle nuvole di coefficienti statistici. Non c'è nessun motivo per cui la risposta giusta debba riapparire se fai la domanda giusta. GPT-3 non funziona così. Non immagazzina conoscenza, ma si perfeziona nell'abilità di mettere in fila le parole. Solo quello. Ed invece, prima o poi, ce lo dimentichiamo. JM2EC. Marco
Buona serata, AB
Il giorno sab 18 feb 2023 alle ore 17:34 Alessandro Brolpito <abrolpito@gmail.com> ha scritto:
Grazie Guido per la chiarezza del tuo messaggio che esprime in una estrema sintesi l'ardire dei LLM, ma anche i limiti umani che abbiamo e che ho in prima persona nel maneggiare informazioni e ragionamenti. Certo, io posso fare pochi danni mentre un sistema LLM su Internet è tutta un'altra potenza di fuoco.
Ma è un dato di fatto che i "dati" e la loro indicizzazione saranno sempre di più, e sempre più sofisticate: le buone domande saranno sempre più importanti delle risposte o meglio saranno importanti per avere delle risposte ragionevoli a chiunque saranno indirizzate.
Alla resistenza vorrei aggiungere l'importanza dello sviluppo del pensiero critico, da coltivare nel percorso educativo, sin dall'inizio, dal 0-6 in avanti. Ed è qui che si deve agire e con alcuni amici in lista ci si stiamo riflettendo sopra sul come.
Alessandro
innovation.h-farm.com / Linkedin
Roncade, H-FARM Campus, Via Olivetti, 1 – 31056 (TV) Milano, Corso di Porta Romana, 15 – 20122 Torino, Via San Quintino, 31 – 10121
Our privacy policy.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Certamente, mi sono espresso male, conosco gli LLM, faccio NLP 🙂 Pensavo allo strato successivo a cui stanno lavorando OpenAI e altri, lo strato di correzione o filtro sull’output o sull’ input dell’utente. D’accordo sul fatto che il testing e la segnalazione di errori sia lavorare gratis, una modalità di lavoro diffusa che non piace neanche a me. Sull’importanza dei dataset sui quali si fa l’apprendimento automatico, credo ci sia un margine di approfondimento del tema. Buona giornata ! AB Il giorno dom 19 feb 2023 alle 22:59 Marco A. Calamari < marcoc_maillist@marcoc.it> ha scritto:
On dom, 2023-02-19 at 19:51 +0100, Andrea Bolioli via nexa wrote:
Oggi ho avuto un'altra brutta sorpresa da ChatGPT e GPT-3 che vi segnalo: ha inventato riferimenti bibliografici a libri e articoli inesistenti, combinando autori, titolo, anno, rivista, editore a caso non corretti, a volte inesistenti. Non riporto i dialoghi, che ho salvato. All'inizio mi hanno fatto ridere, sembravano le risposte di un simpatico cialtrone... ( - "Puoi indicarmi dei riferimenti a libri e articoli scientifici che parlano del tema XX?" - "Certamente! Bla bla bla"). Ho scritto a GPT che si sbagliava, si è scusato più volte e mi ha proposto altri riferimenti a libri e articoli, alcuni corretti, alcuni inesistenti. Ho provato in italiano e inglese, stesso comportamento. Ho lasciato perdere. Questo tipo di errore non me l'aspettavo, perché non è molto difficile controllare la correttezza (o perlomeno l'esistenza) dei riferimenti bibliografici. Evidentemente non era tra le priorità di OpenAI finora, non avranno ancora integrato banche dati bibliografiche?
C'è un problema di fondo.
Quello di ritenere che, avendo fornito della conoscenza, dei fatti, ad una IA generativa, questa conoscenza esista ancora al suo interno.
Non è cosi.
E' stata digerita, bruciata, e sono rimaste delle nuvole di coefficienti statistici.
Non c'è nessun motivo per cui la risposta giusta debba riapparire se fai la domanda giusta.
GPT-3 non funziona così. Non immagazzina conoscenza, ma si perfeziona nell'abilità di mettere in fila le parole. Solo quello.
Ed invece, prima o poi, ce lo dimentichiamo.
JM2EC. Marco
Buona serata, AB
Il giorno sab 18 feb 2023 alle ore 17:34 Alessandro Brolpito < abrolpito@gmail.com> ha scritto:
Grazie Guido per la chiarezza del tuo messaggio che esprime in una estrema sintesi l'ardire dei LLM, ma anche i limiti umani che abbiamo e che ho in prima persona nel maneggiare informazioni e ragionamenti. Certo, io posso fare pochi danni mentre un sistema LLM su Internet è tutta un'altra potenza di fuoco.
Ma è un dato di fatto che i "dati" e la loro indicizzazione saranno sempre di più, e sempre più sofisticate: le buone domande saranno sempre più importanti delle risposte o meglio saranno importanti per avere delle risposte ragionevoli a chiunque saranno indirizzate.
Alla resistenza vorrei aggiungere l'importanza dello sviluppo del pensiero critico, da coltivare nel percorso educativo, sin dall'inizio, dal 0-6 in avanti. Ed è qui che si deve agire e con alcuni amici in lista ci si stiamo riflettendo sopra sul come.
Alessandro
innovation.h-farm.com / Linkedin <https://www.linkedin.com/company/h-farm-innovation>
*Roncade*, H-FARM Campus, Via Olivetti, 1 – 31056 (TV <https://www.google.com/maps/search/Via+Olivetti,+1+%E2%80%93+31056+(TV?entry...> ) *Milano <https://www.google.com/maps/search/Milano+,+Corso+di+Porta+Romana,+15+%E2%80%93+20122?entry=gmail&source=g>*, Corso di Porta Romana, 15 – 20122 <https://www.google.com/maps/search/Milano+,+Corso+di+Porta+Romana,+15+%E2%80...> *Torino <https://www.google.com/maps/search/Torino+,+Via+San+Quintino,+31+%E2%80%93+10121?entry=gmail&source=g>*, Via San Quintino, 31 – 10121 <https://www.google.com/maps/search/Torino+,+Via+San+Quintino,+31+%E2%80%93+1...>
Our privacy policy <https://www.jakala.com/wp-content/uploads/2019/11/JAKALA-pivacy-policy-and-c...> .
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- * * innovation.h-farm.com <https://innovation.h-farm.com/> / Linkedin <https://www.linkedin.com/company/h-farm-innovation> *Roncade*, H-FARM Campus, Via Olivetti, 1 – 31056 (TV) *Milano*, Corso di Porta Romana, 15 – 20122 *Torino*, Via San Quintino, 31 – 10121 Our privacy policy <https://www.jakala.com/wp-content/uploads/2019/11/JAKALA-pivacy-policy-and-c...>.
Buongiorno, grazie Marco per LA frase chiave del discorso :-) "Marco A. Calamari" <marcoc_maillist@marcoc.it> writes: [...]
GPT-3 non funziona così. Non immagazzina conoscenza, ma si perfeziona nell'abilità di mettere in fila le parole. Solo quello.
Credo che sia all'opera un processo che nel "circolo" di c18e.it chiamiamo "mascheramento", simile (ma più complesso) rispetto al mascheramento operato dalle interfacce grafiche (o web) A ben vedere, sotto la maschera, ChatGPT è un sofista (erista) cibernetico autonomo, è maestro nel "mettere in fila le parole" e far /apparire/ che siano vere _solo_ perché sono messe in fila estremamente bene. Tecnicamente, /ontologicamente/, in un Large Language Model: --8<---------------cut here---------------start------------->8--- non interessa se un discorso possa essere vero o falso né le definizioni delle parole che vengono impiegate; il suo unico fine è quello di confutare il proprio avversario e di persuaderlo mediante la retorica a cambiare opinione. Per questo i sofisti della scuola eristica, detti eristi, si vantavano di poter confutare qualsiasi cosa che si dica esser vera o esser falsa. --8<---------------cut here---------------end--------------->8--- (da https://it.wikipedia.org/wiki/Eristica) Qualche millennio dopo, l'uomo è in grado di "costruire" una magnifica MES (Macchina Eristica Stocastica) denominata Large Language Model [1], roba che i sofisti non potevano nemmeno sognarsi di striscio fino a 30 anni fa, erano costretti a ricorrere autonomamente ad altre /tecniche/. Penso che i /narratori/ e i progettisti dei LLM e dell'AI in generale non si pongano minimamente un obiettivo filosofico ma si "limitino" ad applicare _tecniche_ sofistiche: --8<---------------cut here---------------start------------->8--- [...] in antitesi con la parola «filosofia», intesa come ricerca del sapere, che presuppone socraticamente il fatto di non possedere alcun sapere. I sofisti vennero ritenuti falsi sapienti, interessati al successo e ai soldi, più che alla verità. [...] I sofisti concepivano la verità come una forma di conoscenza sempre e comunque relativa al soggetto che la produce e al suo rapporto con l'esperienza. Non esiste un'unica verità, poiché essa si frantuma in una miriade di opinioni soggettive, le quali, proprio in quanto relative, finiscono per essere considerate comunque valide ed equivalenti: si parla pertanto di relativismo gnoseologico. Questo relativismo investe tutti gli ambiti della conoscenza, dall'etica alla politica, dalla religione alle scienze della natura. [...] La dialettica divenne una disciplina filosofica essenziale e influenzò profondamente la retorica, ponendo l'accento sull'aspetto persuasivo dei discorsi, fino a scadere nell'eristica. --8<---------------cut here---------------end--------------->8--- (da https://it.wikipedia.org/wiki/Sofistica) ...solo che, a volte, ce lo dimentichiamo (perché /sempre/ quando c'è di mezzo un computer c'è di mezzo una forma più o meno marcata di mascheramento). [...] saluti, 380° [1] che poi... mi piacerebbe ascoltare il giudizio di qualche linguista in merito alla "stocastica del linguaggio" :-O P.S.: dialettica NON in senso hegeliano, insomma -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Andrea Bolioli via nexa <nexa@server-nexa.polito.it> writes: [...]
Questo tipo di errore non me l'aspettavo, perché non è molto difficile controllare la correttezza (o perlomeno l'esistenza) dei riferimenti bibliografici. Evidentemente non era tra le priorità di OpenAI finora, non avranno ancora integrato banche dati bibliografiche?
ribadisco la mia fiera (sebbene relativa) ignoranza nel funzionamento di ChatGPT, ma è tecnicamente possibile "inserire" nel modello generato da una rete neurale un sistema di verifica di fonti esterne tipo bibliografie, database RDF, ecc.? da quello che ho capito io (soprattutto grazie a https://nooscope.ai/ [1]) non è possibile "incorporare" le fonti /prima/ della generazione del modello LLM perché le fasi di "compressione delle informazioni" (inevitabili per poter generare il modello) non prevedono di "salvare" la fonte (non c'è nemmeno il concetto di fonte in una rete neurale, no?) l'unica cosa che si potrebbe fare è quella di far controllare la risposta ad un agente cibernetico autonomo esterno al LLM al quale venga fornito il "database universale delle fonti" e che sia in grado di verificare postumamente le fonnti alle quali si riferisce l'output di ChatGPT... ma siamo punto e a capo: qual'è quell sistema AI in grado di farlo? saluti, 380° [1] "a manifesto of AI dissidents" :-D [...] -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
I dataset usati nell'apprendimento automatico influenzano fortemente i comportamenti dei servizi basati sugli LLM, anche se non li definiscono in modo deterministico. Un filone di ricerca portato avanti da Andrew Ng e altri ricercatori è focalizzato proprio sulla Data centric AI: banalmente, se il dataset contiene solo testi misogini, l'LLM genererà testi misogini. I dataset utilizzati hanno un ruolo importante. Si ha a che fare però con dataset enormi, il training richiede enormi capacità computazionali e di memoria, quindi non è facile lavorare su questi aspetti, mi risulta che le università stesse abbiano difficoltà a lavorare su questi temi. Ricercatori come Giuseppe Attardi possono spiegare molto meglio di me questi temi. Come funzionerebbe un LLM che abbia fatto apprendimento anche su intere banche dati bibliografiche? Non lo so. Dato un certo LLM (che fa quello che vuole, quello che sa fare, genere testi di tanti tipi), posso andare a controllare/analizzare i testi che genera oppure controllare/analizzare i testi che scrivono gli utenti, e quindi filtrarli, integrali, correggerli. Ad es. Bing sta mettendo filtri/limiti vari all'interazione con gli utenti in questi giorni per non rendere visibili troppe fesserie generate automaticamente. Se il controllo, filtro, integrazione con risorse esterne diventa troppo costoso, probabilmente ad un certo punto conviene creare un nuovo LLM. AB Il giorno mer 22 feb 2023 alle ore 10:51 380° <g380@biscuolo.net> ha scritto:
Andrea Bolioli via nexa <nexa@server-nexa.polito.it> writes:
[...]
Questo tipo di errore non me l'aspettavo, perché non è molto difficile controllare la correttezza (o perlomeno l'esistenza) dei riferimenti bibliografici. Evidentemente non era tra le priorità di OpenAI finora, non avranno ancora integrato banche dati bibliografiche?
ribadisco la mia fiera (sebbene relativa) ignoranza nel funzionamento di ChatGPT, ma è tecnicamente possibile "inserire" nel modello generato da una rete neurale un sistema di verifica di fonti esterne tipo bibliografie, database RDF, ecc.?
-- * * innovation.h-farm.com <https://innovation.h-farm.com/> / Linkedin <https://www.linkedin.com/company/h-farm-innovation> *Roncade*, H-FARM Campus, Via Olivetti, 1 – 31056 (TV) *Milano*, Corso di Porta Romana, 15 – 20122 *Torino*, Via San Quintino, 31 – 10121 Our privacy policy <https://www.jakala.com/wp-content/uploads/2019/11/JAKALA-pivacy-policy-and-c...>.
Usi che sono spinti dalla bulimia capitalistica entrata nella fase allucinatoria. Ecco: secondo me la resistenza potrebbe essere una valida alternativa a questo mortifero adattamento. L’adozione di un nuovo modello è ciò che vado proponendo io, e che presenterò martedì 14 marzo all’Eticaffè ospitato da Caffè Vergnano di Corso Einaudi 31, a Torino. Andrea Surbone +39 335 7226007 <http://www.surbone.it/> www.surbone.it <http://www.jussemper.org/> www.jussemper.org <http://www.propostaneokeynesiana.it/> www.propostaneokeynesiana.it D. Astrologo, A. Surbone, P. Terna Il lavoro e il valore al tempo dei robot - Intelligenza artificiale e non-occupazione Meltemi, Milano 2019 – con prefazione di Adam Smith <http://www.meltemieditore.it/catalogo/lavoro-valore-allepoca-dei-robot/> www.meltemieditore.it/catalogo/lavoro-valore-allepoca-dei-robot/ Da: nexa <nexa-bounces@server-nexa.polito.it> Per conto di Guido Vetere Inviato: sabato 18 febbraio 2023 12:08 A: Giacomo Tesio <giacomo@tesio.it> Cc: Andrea Bolioli via nexa <nexa@server-nexa.polito.it> Oggetto: Re: [nexa] l'output e le fonti [era Triste Annuncio (a proposito di Chat GPT)] Assioma della conoscenza (logica epistemica): Kp -> p a parole: sai che 'p' (es. 'oggi c'è il sole') solo se 'p' è vero: se non hai modo di stabilirlo, allora la tua è solo credenza ChatGPT non sa nulla (ovviamente) ma su moltissime proposizioni noi non siamo messi molto meglio Il punto importante però è un altro: sta in quel 'modo di stabilirlo'. Va detto chiaramente: i LLM non devono essere accettati come modi di stabilire la verità di alcunché. Personaggi anche famosi oggi affermano che l'umanità debba 'adattarsi' a questi usi dei LLM. Usi che sono spinti dalla bulimia capitalistica entrata nella fase allucinatoria. Ecco: secondo me la resistenza potrebbe essere una valida alternativa a questo mortifero adattamento. G. On Fri, 17 Feb 2023 at 20:35, Giacomo Tesio <giacomo@tesio.it <mailto:giacomo@tesio.it> > wrote: Non 'in senso stretto": chatgpt non sa nulla. Per affermare che un LLM sappia qualcosa è necessario svuotare competamente il verbo "sapere" del proprio significato e sostituirlo con quello di "indicizzare". ChatGPT non sa. Giacomo Il 17 Febbraio 2023 18:20:44 UTC, Andrea Bolioli <andrea.bolioli@h-farm.com <mailto:andrea.bolioli@h-farm.com> > ha scritto: Ciao Giacomo, purtroppo sono d'accordo con molte delle cose che scrivi, non tutte, ma molte. Sicuramente è bene diffondere la consapevolezza che gli LLM non sanno tutto (in senso stretto non sanno nulla), scrivono cose false senza distinguere tra vero e falso, vengono creati/utilizzati da aziende che non hanno come primo scopo il bene comune (anche se dicono di averlo), ecc AB Il giorno ven 17 feb 2023 alle ore 16:16 Giacomo Tesio <giacomo@tesio.it <mailto:giacomo@tesio.it> > ha scritto: Salve Andrea, <https://h-farm-static.s3.eu-south-1.amazonaws.com/HFI_JAKALA_Logo_mail.png> innovation.h-farm.com <https://innovation.h-farm.com/> / Linkedin <https://www.linkedin.com/company/h-farm-innovation> Roncade, H-FARM Campus, Via Olivetti, 1 – 31056 (TV) Milano, Corso di Porta Romana, 15 – 20122 Torino, Via San Quintino, 31 – 10121 Our privacy policy <https://www.jakala.com/wp-content/uploads/2019/11/JAKALA-pivacy-policy-and-c...> . _______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
ERRATA CORRIGE La presentazione è stata rinviata a martedì 11 aprile, sempre alle 17 Andrea Surbone +39 335 7226007 <http://www.surbone.it/> www.surbone.it <http://www.jussemper.org/> www.jussemper.org <http://www.propostaneokeynesiana.it/> www.propostaneokeynesiana.it D. Astrologo, A. Surbone, P. Terna Il lavoro e il valore al tempo dei robot - Intelligenza artificiale e non-occupazione Meltemi, Milano 2019 con prefazione di Adam Smith <http://www.meltemieditore.it/catalogo/lavoro-valore-allepoca-dei-robot/> www.meltemieditore.it/catalogo/lavoro-valore-allepoca-dei-robot/ Da: nexa <nexa-bounces@server-nexa.polito.it> Per conto di andrea@surbone.it Inviato: lunedì 20 febbraio 2023 17:51 A: 'Guido Vetere' <vetere.guido@gmail.com>; 'Giacomo Tesio' <giacomo@tesio.it> Cc: 'Andrea Bolioli via nexa' <nexa@server-nexa.polito.it> Oggetto: [nexa] R: l'output e le fonti [era Triste Annuncio (a proposito di Chat GPT)] Usi che sono spinti dalla bulimia capitalistica entrata nella fase allucinatoria. Ecco: secondo me la resistenza potrebbe essere una valida alternativa a questo mortifero adattamento. Ladozione di un nuovo modello è ciò che vado proponendo io, e che presenterò martedì 14 marzo allEticaffè ospitato da Caffè Vergnano di Corso Einaudi 31, a Torino. Andrea Surbone +39 335 7226007 <http://www.surbone.it/> www.surbone.it <http://www.jussemper.org/> www.jussemper.org <http://www.propostaneokeynesiana.it/> www.propostaneokeynesiana.it D. Astrologo, A. Surbone, P. Terna Il lavoro e il valore al tempo dei robot - Intelligenza artificiale e non-occupazione Meltemi, Milano 2019 con prefazione di Adam Smith <http://www.meltemieditore.it/catalogo/lavoro-valore-allepoca-dei-robot/> www.meltemieditore.it/catalogo/lavoro-valore-allepoca-dei-robot/ Da: nexa <nexa-bounces@server-nexa.polito.it <mailto:nexa-bounces@server-nexa.polito.it> > Per conto di Guido Vetere Inviato: sabato 18 febbraio 2023 12:08 A: Giacomo Tesio <giacomo@tesio.it <mailto:giacomo@tesio.it> > Cc: Andrea Bolioli via nexa <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> > Oggetto: Re: [nexa] l'output e le fonti [era Triste Annuncio (a proposito di Chat GPT)] Assioma della conoscenza (logica epistemica): Kp -> p a parole: sai che 'p' (es. 'oggi c'è il sole') solo se 'p' è vero: se non hai modo di stabilirlo, allora la tua è solo credenza ChatGPT non sa nulla (ovviamente) ma su moltissime proposizioni noi non siamo messi molto meglio Il punto importante però è un altro: sta in quel 'modo di stabilirlo'. Va detto chiaramente: i LLM non devono essere accettati come modi di stabilire la verità di alcunché. Personaggi anche famosi oggi affermano che l'umanità debba 'adattarsi' a questi usi dei LLM. Usi che sono spinti dalla bulimia capitalistica entrata nella fase allucinatoria. Ecco: secondo me la resistenza potrebbe essere una valida alternativa a questo mortifero adattamento. G. On Fri, 17 Feb 2023 at 20:35, Giacomo Tesio <giacomo@tesio.it <mailto:giacomo@tesio.it> > wrote: Non 'in senso stretto": chatgpt non sa nulla. Per affermare che un LLM sappia qualcosa è necessario svuotare competamente il verbo "sapere" del proprio significato e sostituirlo con quello di "indicizzare". ChatGPT non sa. Giacomo Il 17 Febbraio 2023 18:20:44 UTC, Andrea Bolioli <andrea.bolioli@h-farm.com <mailto:andrea.bolioli@h-farm.com> > ha scritto: Ciao Giacomo, purtroppo sono d'accordo con molte delle cose che scrivi, non tutte, ma molte. Sicuramente è bene diffondere la consapevolezza che gli LLM non sanno tutto (in senso stretto non sanno nulla), scrivono cose false senza distinguere tra vero e falso, vengono creati/utilizzati da aziende che non hanno come primo scopo il bene comune (anche se dicono di averlo), ecc AB Il giorno ven 17 feb 2023 alle ore 16:16 Giacomo Tesio <giacomo@tesio.it <mailto:giacomo@tesio.it> > ha scritto: Salve Andrea, <https://h-farm-static.s3.eu-south-1.amazonaws.com/HFI_JAKALA_Logo_mail.png> innovation.h-farm.com <https://innovation.h-farm.com/> / Linkedin <https://www.linkedin.com/company/h-farm-innovation> Roncade, H-FARM Campus, Via Olivetti, 1 31056 (TV) Milano, Corso di Porta Romana, 15 20122 Torino, Via San Quintino, 31 10121 Our privacy policy <https://www.jakala.com/wp-content/uploads/2019/11/JAKALA-pivacy-policy-and- cookie-policy_DEF.pdf> . _______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
participants (10)
-
380° -
Alberto Cammozzo -
Alessandro Brolpito -
Andrea Bolioli -
andrea@surbone.it -
Giacomo Tesio -
Guido Vetere -
M. Fioretti -
Marco A. Calamari -
maurizio lana