Walter Quattrociocchi, post su facebook
Ho trovato su facebook questo "divertente" (per me) post di Walter Quattrociocchi (https://www.facebook.com/share/p/1FuLevWrGQ/); relata refero. Quando si scambia un motore linguistico per altro Qualche tempo fa spiegavo agli studenti a cosa si va incontro con un esempio pratico usando gli LLM per fare analisi dei dati. Ho preso una serie di dati epidemiologici dal 2010 al 2014 e ho chiesto al modello di costruire un grafico. Il risultato conteneva anche valori del 2020–2021, cioè il periodo in cui la disponibilità di dati esplode per via della pandemia. Non ha “rispettato i dati”; ha seguito il punto di massima densità informativa. Questi sistemi non “leggono” il tuo dataset, si muovono in uno spazio linguistico che è già stratificato intorno alle zone dove il dato è più abbondante, più ripetuto, più recente, più statisticamente conveniente. Io gli chiedo 2010–2014; lui mi porta comunque a 2020–2021 perché lì il terreno è più fertile, più denso, più “sicuro” dal punto di vista della plausibilità. Se metto accanto a questo esperimento quello che via via raccolgo e annoto, la trama è sempre la stessa. C’è chi prova a usare un modello per generare codice o markup ripetitivo. All’inizio la procedura sembra funzionare, poi, pagina dopo pagina, l’uscita si sfalda, la coerenza si perde, le stesse istruzioni producono varianti divergenti, e il costo di correzione supera quello di fare il lavoro a mano. C’è chi usa il modello su contenuti specialistici (musica, armonia, analisi di testi complessi) e ottiene risposte formalmente ben confezionate ma concettualmente vuote. Dalle frasi lunghe con lessico corretto, ma regole sbagliate in modo grossolano, come se il sistema imitasse il rumore di fondo della disciplina senza averne mai incontrato la struttura. Il meccanismo è sempre lo stesso, in ambito tecnico succede lo stesso: conversioni numeriche semplici, corrette per le prime richieste, cominciano a deragliare non appena si aumenta leggermente la complessità o la quantità di esempi. La procedura non si stabilizza, non si “irrobustisce”, si ridispone ogni volta come se fosse la prima. Quando si passa al dominio fattuale, la cosa diventa più inquietante: cronologie storiche riscritte con sicurezza, programmi esistiti dichiarati inesistenti o viceversa, riferimenti geografici inventati, dettagli biografici attribuiti a persone reali senza alcuna base; solo chi conosce già l’argomento ha gli strumenti per riconoscere l’invenzione. Chi non sa, prende atto. E integra. Nel dominio medico il pattern è ancora più evidente (alla faccia dei racconti metaforici e appezzotati fatti a botte di epistemia). Un referto viene interpretato con apparente competenza, alcuni dettagli sono spiegati in modo plausibile, poi una sigla viene proiettata in un contesto completamente incompatibile (ostetrico in presenza di un apparato genitale maschile), e il sistema razionalizza l’errore invece di riconoscerlo. Non dice “non lo so”, dice “ho capito, è un refuso”. Nella produzione di testi culturali (guida turistica, analisi letteraria, citazione poetica) si vede l’altro lato della stessa cosa, ovvero la capacità di generare un testo perfettamente leggibile, tonalmente adeguato, ritmato nel modo “giusto”, ma privo di informazioni. Pagine intere che potresti spostare da un luogo all’altro del mondo senza che cambi nulla. Infine ci sono i casi di delega integrale con strumenti configurati per monitorare notizie, che ripropongono come “nuovi” articoli vecchi di mesi, oppure ne saltano di rilevanti senza criterio apparente; manager convinti di risparmiare tempo affidando a un modello la ricostruzione di cifre complesse, che si ritrovano con numeri sbagliati di ordini di grandezza, ma esposti con tale sicurezza lessicale da passare il primo vaglio superficiale. Quello che tiene insieme tutte queste situazioni non è il singolo errore, ma la combinazione di tre elementi: la fluidità del linguaggio, la pressione verso le aree ad alta densità di dato e l’assenza di una rappresentazione del mondo che faccia da vincolo. L’idea bislacca, ma molto diffusa, che “basterebbe cambiare la base di conoscenza” per risolvere il problema è la versione aggiornata della vecchia fede nella fonte giusta. Come se il difetto fosse “cosa ha letto il modello”, e non il modo in cui funziona. Aggiungere più dati, o dati migliori, può ridurre alcuni errori di superficie, ma questi sistemi non operano su un modello del mondo, non possiedono strutture interne che garantiscano coerenza temporale, causale o concettuale. Operano su distribuzioni di probabilità condizionate: massimizzano la plausibilità linguistica locale, frase per frase, token per token. Quando c’è molta informazione su un certo periodo, un certo evento, un certo modo di parlare, il gradiente le spinge lì, anche se tu stai chiedendo altro. Quando una spiegazione è stilisticamente convincente, la produce, anche in assenza di un criterio che la colleghi a qualcosa di vero. L’EpistemIA nasce esattamente in questo punto di contatto: dove un meccanismo cieco rispetto al mondo incontra un utente che cerca conoscenza, non testo. L’utente vede coerenza grammaticale, tono competente, riferimenti plausibili, e scambia tutto questo per prova. Ma il modello non “sa” se ciò che dice è vero; non ha un luogo interno dove la verità possa essere rappresentata o controllata. La verifica, se avviene, è sempre esterna: siamo noi. E proprio mentre ci affidiamo al sistema per risparmiarci la fatica della verifica, la verifica stessa scompare dall’orizzonte cognitivo: non viene più concepita come fase necessaria del processo, perché è delegata. Infatti il numero di ricercatori indipendenti, dotti-immaginari e tutto il cucuzzaro di gente che dice menate cresce ogni giorno di più. Per questo i vostri esempi sono così importanti: mostrano che non siamo davanti a una collezione di bug da correggere con l’aggiornamento successivo, ma a una trasformazione strutturale del rapporto tra linguaggio e conoscenza. Non è un problema di “accuratezza percentuale”, è lo slittamento da un ecosistema informativo basato sulla ricerca e sul confronto di fonti a uno basato sulla simulazione continua di risposte plausibili. Se non teniamo fermo questo punto, ci ritroviamo a discutere di queste tecnologie come se fossero motori di ricerca più evoluti o assistenti infallibili, mentre sono un’altra cosa. Sono interfacce che ricostruiscono il mondo a partire da come ne abbiamo scritto, non da com'è. Continuare a raccogliere casi non serve a fare l’elenco degli errori, ma a mappare il perimetro di questa nuova condizione: un ambiente in cui la facilità di produzione di testo può dare l’impressione che la conoscenza sia a portata di chat, mentre in realtà si è solo spostato, e reso invisibile, il lavoro più importante: quello della verifica.
Grazie per la condivisione. Mi capita spesso di avere a che fare con persone laureate, professionisti e altro, che pensano che sia una buona idea far fare calcoli a sistemi LLM (ad es. i calcoli al posto di usare Excel) e usare LLM per altri task deterministici, task che richiedono una risposta univoca e possibilmente vera. Come fare a contrastare questa tendenza? La prima volta mi è successo anni fa lavorando in una azienda di consulenza "di alto livello", cioè con clienti aziendali grossi: il cliente grosso chiedeva proprio di usare LLM per fare calcoli invece di Excel o altro foglio di calcolo o sw di base. Se il cliente paga molto per farlo giocare in questo modo, chi rinuncia e dice di no, e perde il cliente? Altri generano analisi di mercato e le vendono . Altri generano software a partire da un volume di specifiche fornito dal cliente. L'elenco è lungo e abbastanza inquietante. Se uno prova a spiegare che non va bene, che gli LLM non sono deterministici, ecc, gli interlocutori restano stupiti e non ci credono. Suggerimenti su come gestire queste situazioni sono benvenuti. Andrea On Tue, Nov 18, 2025 at 8:33 AM Alfredo Bregni <abregni@iperv.it> wrote:
Ho trovato su facebook questo "divertente" (per me) post di Walter Quattrociocchi (https://www.facebook.com/share/p/1FuLevWrGQ/); relata refero.
*Quando si scambia un motore linguistico per altro*
Qualche tempo fa spiegavo agli studenti a cosa si va incontro con un esempio pratico usando gli LLM per fare analisi dei dati. Ho preso una serie di dati epidemiologici dal 2010 al 2014 e ho chiesto al modello di costruire un grafico. Il risultato conteneva anche valori del 2020–2021, cioè il periodo in cui la disponibilità di dati esplode per via della pandemia. Non ha “rispettato i dati”; ha seguito il punto di massima densità informativa. Questi sistemi non “leggono” il tuo dataset, si muovono in uno spazio linguistico che è già stratificato intorno alle zone dove il dato è più abbondante, più ripetuto, più recente, più statisticamente conveniente. Io gli chiedo 2010–2014; lui mi porta comunque a 2020–2021 perché lì il terreno è più fertile, più denso, più “sicuro” dal punto di vista della plausibilità. Se metto accanto a questo esperimento quello che via via raccolgo e annoto, la trama è sempre la stessa. C’è chi prova a usare un modello per generare codice o markup ripetitivo. All’inizio la procedura sembra funzionare, poi, pagina dopo pagina, l’uscita si sfalda, la coerenza si perde, le stesse istruzioni producono varianti divergenti, e il costo di correzione supera quello di fare il lavoro a mano. C’è chi usa il modello su contenuti specialistici (musica, armonia, analisi di testi complessi) e ottiene risposte formalmente ben confezionate ma concettualmente vuote. Dalle frasi lunghe con lessico corretto, ma regole sbagliate in modo grossolano, come se il sistema imitasse il rumore di fondo della disciplina senza averne mai incontrato la struttura. Il meccanismo è sempre lo stesso, in ambito tecnico succede lo stesso: conversioni numeriche semplici, corrette per le prime richieste, cominciano a deragliare non appena si aumenta leggermente la complessità o la quantità di esempi. La procedura non si stabilizza, non si “irrobustisce”, si ridispone ogni volta come se fosse la prima. Quando si passa al dominio fattuale, la cosa diventa più inquietante: cronologie storiche riscritte con sicurezza, programmi esistiti dichiarati inesistenti o viceversa, riferimenti geografici inventati, dettagli biografici attribuiti a persone reali senza alcuna base; solo chi conosce già l’argomento ha gli strumenti per riconoscere l’invenzione. Chi non sa, prende atto. E integra. Nel dominio medico il pattern è ancora più evidente (alla faccia dei racconti metaforici e appezzotati fatti a botte di epistemia). Un referto viene interpretato con apparente competenza, alcuni dettagli sono spiegati in modo plausibile, poi una sigla viene proiettata in un contesto completamente incompatibile (ostetrico in presenza di un apparato genitale maschile), e il sistema razionalizza l’errore invece di riconoscerlo. Non dice “non lo so”, dice “ho capito, è un refuso”. Nella produzione di testi culturali (guida turistica, analisi letteraria, citazione poetica) si vede l’altro lato della stessa cosa, ovvero la capacità di generare un testo perfettamente leggibile, tonalmente adeguato, ritmato nel modo “giusto”, ma privo di informazioni. Pagine intere che potresti spostare da un luogo all’altro del mondo senza che cambi nulla. Infine ci sono i casi di delega integrale con strumenti configurati per monitorare notizie, che ripropongono come “nuovi” articoli vecchi di mesi, oppure ne saltano di rilevanti senza criterio apparente; manager convinti di risparmiare tempo affidando a un modello la ricostruzione di cifre complesse, che si ritrovano con numeri sbagliati di ordini di grandezza, ma esposti con tale sicurezza lessicale da passare il primo vaglio superficiale.
Quello che tiene insieme tutte queste situazioni non è il singolo errore, ma la combinazione di tre elementi: la fluidità del linguaggio, la pressione verso le aree ad alta densità di dato e l’assenza di una rappresentazione del mondo che faccia da vincolo. L’idea bislacca, ma molto diffusa, che “basterebbe cambiare la base di conoscenza” per risolvere il problema è la versione aggiornata della vecchia fede nella fonte giusta. Come se il difetto fosse “cosa ha letto il modello”, e non il modo in cui funziona. Aggiungere più dati, o dati migliori, può ridurre alcuni errori di superficie, ma questi sistemi non operano su un modello del mondo, non possiedono strutture interne che garantiscano coerenza temporale, causale o concettuale. Operano su distribuzioni di probabilità condizionate: massimizzano la plausibilità linguistica locale, frase per frase, token per token. Quando c’è molta informazione su un certo periodo, un certo evento, un certo modo di parlare, il gradiente le spinge lì, anche se tu stai chiedendo altro. Quando una spiegazione è stilisticamente convincente, la produce, anche in assenza di un criterio che la colleghi a qualcosa di vero. L’EpistemIA nasce esattamente in questo punto di contatto: dove un meccanismo cieco rispetto al mondo incontra un utente che cerca conoscenza, non testo. L’utente vede coerenza grammaticale, tono competente, riferimenti plausibili, e scambia tutto questo per prova. Ma il modello non “sa” se ciò che dice è vero; non ha un luogo interno dove la verità possa essere rappresentata o controllata. La verifica, se avviene, è sempre esterna: siamo noi. E proprio mentre ci affidiamo al sistema per risparmiarci la fatica della verifica, la verifica stessa scompare dall’orizzonte cognitivo: non viene più concepita come fase necessaria del processo, perché è delegata. Infatti il numero di ricercatori indipendenti, dotti-immaginari e tutto il cucuzzaro di gente che dice menate cresce ogni giorno di più. Per questo i vostri esempi sono così importanti: mostrano che non siamo davanti a una collezione di bug da correggere con l’aggiornamento successivo, ma a una trasformazione strutturale del rapporto tra linguaggio e conoscenza. Non è un problema di “accuratezza percentuale”, è lo slittamento da un ecosistema informativo basato sulla ricerca e sul confronto di fonti a uno basato sulla simulazione continua di risposte plausibili. Se non teniamo fermo questo punto, ci ritroviamo a discutere di queste tecnologie come se fossero motori di ricerca più evoluti o assistenti infallibili, mentre sono un’altra cosa. Sono interfacce che ricostruiscono il mondo a partire da come ne abbiamo scritto, non da com'è. Continuare a raccogliere casi non serve a fare l’elenco degli errori, ma a mappare il perimetro di questa nuova condizione: un ambiente in cui la facilità di produzione di testo può dare l’impressione che la conoscenza sia a portata di chat, mentre in realtà si è solo spostato, e reso invisibile, il lavoro più importante: quello della verifica.
Buonasera Andrea, nel lontano 1721 Johnathan Swift scriveva: "Reasoning will never make a man correct an ill opinion, which by reasoning he never acquired" sfortunatamente il geniale scrittore non ci ha lasciato alcun suggerimento su come procedere, salvo il fatto che non possiamo sperare di far conto sulla razionalità. Forse il giorno che Sam Altman e i suoi epigoni faranno la fine dell'altro Sam (Bankman-Fried) allora avremo il "fattore emotivo" per affrontare questo tipo di discussioni. Chissà. Nel frattempo pare che le evidenze scientifiche su come funzionano i LLM non sembrano fare alcun effetto. Io posso solo certificare che i miei allievi, quando sperimentano in diretta il funzionamento dei LLM (e quanto sia semplice farli allucinare) hanno solitamente un "momento eureka". Learning by doing? Certamente una cosa molto più difficile con gli adulti, ovviamente. Stefano B. B. Inviato con la posta elettronica sicura [Proton Mail](https://proton.me/mail/home). martedì 18 novembre 2025 10:54, Andrea Bolioli <andrea.bolioli@gmail.com> ha scritto:
Grazie per la condivisione.
Mi capita spesso di avere a che fare con persone laureate, professionisti e altro, che pensano che sia una buona idea far fare calcoli a sistemi LLM (ad es. i calcoli al posto di usare Excel) e usare LLM per altri task deterministici, task che richiedono una risposta univoca e possibilmente vera. Come fare a contrastare questa tendenza? La prima volta mi è successo anni fa lavorando in una azienda di consulenza "di alto livello", cioè con clienti aziendali grossi: il cliente grosso chiedeva proprio di usare LLM per fare calcoli invece di Excel o altro foglio di calcolo o sw di base. Se il cliente paga molto per farlo giocare in questo modo, chi rinuncia e dice di no, e perde il cliente? Altri generano analisi di mercato e le vendono . Altri generano software a partire da un volume di specifiche fornito dal cliente. L'elenco è lungo e abbastanza inquietante. Se uno prova a spiegare che non va bene, che gli LLM non sono deterministici, ecc, gli interlocutori restano stupiti e non ci credono. Suggerimenti su come gestire queste situazioni sono benvenuti.
Andrea
On Tue, Nov 18, 2025 at 8:33 AM Alfredo Bregni <abregni@iperv.it> wrote:
Ho trovato su facebook questo "divertente" (per me) post di Walter Quattrociocchi (https://www.facebook.com/share/p/1FuLevWrGQ/); relata refero.
Quando si scambia un motore linguistico per altro
Qualche tempo fa spiegavo agli studenti a cosa si va incontro con un esempio pratico usando gli LLM per fare analisi dei dati. Ho preso una serie di dati epidemiologici dal 2010 al 2014 e ho chiesto al modello di costruire un grafico. Il risultato conteneva anche valori del 2020–2021, cioè il periodo in cui la disponibilità di dati esplode per via della pandemia. Non ha “rispettato i dati”; ha seguito il punto di massima densità informativa. Questi sistemi non “leggono” il tuo dataset, si muovono in uno spazio linguistico che è già stratificato intorno alle zone dove il dato è più abbondante, più ripetuto, più recente, più statisticamente conveniente. Io gli chiedo 2010–2014; lui mi porta comunque a 2020–2021 perché lì il terreno è più fertile, più denso, più “sicuro” dal punto di vista della plausibilità. Se metto accanto a questo esperimento quello che via via raccolgo e annoto, la trama è sempre la stessa. C’è chi prova a usare un modello per generare codice o markup ripetitivo. All’inizio la procedura sembra funzionare, poi, pagina dopo pagina, l’uscita si sfalda, la coerenza si perde, le stesse istruzioni producono varianti divergenti, e il costo di correzione supera quello di fare il lavoro a mano. C’è chi usa il modello su contenuti specialistici (musica, armonia, analisi di testi complessi) e ottiene risposte formalmente ben confezionate ma concettualmente vuote. Dalle frasi lunghe con lessico corretto, ma regole sbagliate in modo grossolano, come se il sistema imitasse il rumore di fondo della disciplina senza averne mai incontrato la struttura. Il meccanismo è sempre lo stesso, in ambito tecnico succede lo stesso: conversioni numeriche semplici, corrette per le prime richieste, cominciano a deragliare non appena si aumenta leggermente la complessità o la quantità di esempi. La procedura non si stabilizza, non si “irrobustisce”, si ridispone ogni volta come se fosse la prima. Quando si passa al dominio fattuale, la cosa diventa più inquietante: cronologie storiche riscritte con sicurezza, programmi esistiti dichiarati inesistenti o viceversa, riferimenti geografici inventati, dettagli biografici attribuiti a persone reali senza alcuna base; solo chi conosce già l’argomento ha gli strumenti per riconoscere l’invenzione. Chi non sa, prende atto. E integra. Nel dominio medico il pattern è ancora più evidente (alla faccia dei racconti metaforici e appezzotati fatti a botte di epistemia). Un referto viene interpretato con apparente competenza, alcuni dettagli sono spiegati in modo plausibile, poi una sigla viene proiettata in un contesto completamente incompatibile (ostetrico in presenza di un apparato genitale maschile), e il sistema razionalizza l’errore invece di riconoscerlo. Non dice “non lo so”, dice “ho capito, è un refuso”. Nella produzione di testi culturali (guida turistica, analisi letteraria, citazione poetica) si vede l’altro lato della stessa cosa, ovvero la capacità di generare un testo perfettamente leggibile, tonalmente adeguato, ritmato nel modo “giusto”, ma privo di informazioni. Pagine intere che potresti spostare da un luogo all’altro del mondo senza che cambi nulla. Infine ci sono i casi di delega integrale con strumenti configurati per monitorare notizie, che ripropongono come “nuovi” articoli vecchi di mesi, oppure ne saltano di rilevanti senza criterio apparente; manager convinti di risparmiare tempo affidando a un modello la ricostruzione di cifre complesse, che si ritrovano con numeri sbagliati di ordini di grandezza, ma esposti con tale sicurezza lessicale da passare il primo vaglio superficiale.
Quello che tiene insieme tutte queste situazioni non è il singolo errore, ma la combinazione di tre elementi: la fluidità del linguaggio, la pressione verso le aree ad alta densità di dato e l’assenza di una rappresentazione del mondo che faccia da vincolo. L’idea bislacca, ma molto diffusa, che “basterebbe cambiare la base di conoscenza” per risolvere il problema è la versione aggiornata della vecchia fede nella fonte giusta. Come se il difetto fosse “cosa ha letto il modello”, e non il modo in cui funziona. Aggiungere più dati, o dati migliori, può ridurre alcuni errori di superficie, ma questi sistemi non operano su un modello del mondo, non possiedono strutture interne che garantiscano coerenza temporale, causale o concettuale. Operano su distribuzioni di probabilità condizionate: massimizzano la plausibilità linguistica locale, frase per frase, token per token. Quando c’è molta informazione su un certo periodo, un certo evento, un certo modo di parlare, il gradiente le spinge lì, anche se tu stai chiedendo altro. Quando una spiegazione è stilisticamente convincente, la produce, anche in assenza di un criterio che la colleghi a qualcosa di vero. L’EpistemIA nasce esattamente in questo punto di contatto: dove un meccanismo cieco rispetto al mondo incontra un utente che cerca conoscenza, non testo. L’utente vede coerenza grammaticale, tono competente, riferimenti plausibili, e scambia tutto questo per prova. Ma il modello non “sa” se ciò che dice è vero; non ha un luogo interno dove la verità possa essere rappresentata o controllata. La verifica, se avviene, è sempre esterna: siamo noi. E proprio mentre ci affidiamo al sistema per risparmiarci la fatica della verifica, la verifica stessa scompare dall’orizzonte cognitivo: non viene più concepita come fase necessaria del processo, perché è delegata. Infatti il numero di ricercatori indipendenti, dotti-immaginari e tutto il cucuzzaro di gente che dice menate cresce ogni giorno di più. Per questo i vostri esempi sono così importanti: mostrano che non siamo davanti a una collezione di bug da correggere con l’aggiornamento successivo, ma a una trasformazione strutturale del rapporto tra linguaggio e conoscenza. Non è un problema di “accuratezza percentuale”, è lo slittamento da un ecosistema informativo basato sulla ricerca e sul confronto di fonti a uno basato sulla simulazione continua di risposte plausibili. Se non teniamo fermo questo punto, ci ritroviamo a discutere di queste tecnologie come se fossero motori di ricerca più evoluti o assistenti infallibili, mentre sono un’altra cosa. Sono interfacce che ricostruiscono il mondo a partire da come ne abbiamo scritto, non da com'è. Continuare a raccogliere casi non serve a fare l’elenco degli errori, ma a mappare il perimetro di questa nuova condizione: un ambiente in cui la facilità di produzione di testo può dare l’impressione che la conoscenza sia a portata di chat, mentre in realtà si è solo spostato, e reso invisibile, il lavoro più importante: quello della verifica.
Grazie Stefano per il suggerimento. Come dici anche tu, con gli adulti laureati e i professionisti è più difficile che con gli studenti. Molti adulti danno per scontato che se c'è stata tutta la mole di investimenti che sappiamo e se troviamo IA generativa ovunque, vuol dire che funziona bene per tutto. Secondo me un Manifesto o qualcosa del genere, come proposto da Maurizio Lana, firmato da ricercatori universitari e altre persone autorevoli, sarebbe molto utile. Un documento semplice e chiaro: l'IA generativa può servire per xxx; non va bene per yyy ; perché zzz . Se la bolla GenAI deve scoppiare, che scoppi il prima possibile. Intanto cerchiamo di limitare i rischi e le perdite di tempo. (io uso i sistemi GenAI, non sono luddista) Andrea On Tue, Nov 18, 2025 at 5:27 PM Stefano Borroni Barale <s.barale@erentil.net> wrote:
Buonasera Andrea, nel lontano 1721 Johnathan Swift scriveva:
"Reasoning will never make a man correct an ill opinion, which by reasoning he never acquired"
sfortunatamente il geniale scrittore non ci ha lasciato alcun suggerimento su come procedere, salvo il fatto che non possiamo sperare di far conto sulla razionalità. Forse il giorno che Sam Altman e i suoi epigoni faranno la fine dell'altro Sam (Bankman-Fried) allora avremo il "fattore emotivo" per affrontare questo tipo di discussioni. Chissà. Nel frattempo pare che le evidenze scientifiche su come funzionano i LLM non sembrano fare alcun effetto. Io posso solo certificare che i miei allievi, quando sperimentano in diretta il funzionamento dei LLM (e quanto sia semplice farli allucinare) hanno solitamente un "momento eureka". Learning by doing? Certamente una cosa molto più difficile con gli adulti, ovviamente. Stefano B. B.
Inviato con la posta elettronica sicura Proton Mail <https://proton.me/mail/home>.
martedì 18 novembre 2025 10:54, Andrea Bolioli <andrea.bolioli@gmail.com> ha scritto:
Grazie per la condivisione.
Mi capita spesso di avere a che fare con persone laureate, professionisti e altro, che pensano che sia una buona idea far fare calcoli a sistemi LLM (ad es. i calcoli al posto di usare Excel) e usare LLM per altri task deterministici, task che richiedono una risposta univoca e possibilmente vera. Come fare a contrastare questa tendenza? La prima volta mi è successo anni fa lavorando in una azienda di consulenza "di alto livello", cioè con clienti aziendali grossi: il cliente grosso chiedeva proprio di usare LLM per fare calcoli invece di Excel o altro foglio di calcolo o sw di base. Se il cliente paga molto per farlo giocare in questo modo, chi rinuncia e dice di no, e perde il cliente? Altri generano analisi di mercato e le vendono . Altri generano software a partire da un volume di specifiche fornito dal cliente. L'elenco è lungo e abbastanza inquietante. Se uno prova a spiegare che non va bene, che gli LLM non sono deterministici, ecc, gli interlocutori restano stupiti e non ci credono. Suggerimenti su come gestire queste situazioni sono benvenuti.
Andrea
On Tue, Nov 18, 2025 at 8:33 AM Alfredo Bregni <abregni@iperv.it> wrote:
Ho trovato su facebook questo "divertente" (per me) post di Walter Quattrociocchi (https://www.facebook.com/share/p/1FuLevWrGQ/); relata refero.
*Quando si scambia un motore linguistico per altro*
Qualche tempo fa spiegavo agli studenti a cosa si va incontro con un esempio pratico usando gli LLM per fare analisi dei dati. Ho preso una serie di dati epidemiologici dal 2010 al 2014 e ho chiesto al modello di costruire un grafico. Il risultato conteneva anche valori del 2020–2021, cioè il periodo in cui la disponibilità di dati esplode per via della pandemia. Non ha “rispettato i dati”; ha seguito il punto di massima densità informativa. Questi sistemi non “leggono” il tuo dataset, si muovono in uno spazio linguistico che è già stratificato intorno alle zone dove il dato è più abbondante, più ripetuto, più recente, più statisticamente conveniente. Io gli chiedo 2010–2014; lui mi porta comunque a 2020–2021 perché lì il terreno è più fertile, più denso, più “sicuro” dal punto di vista della plausibilità. Se metto accanto a questo esperimento quello che via via raccolgo e annoto, la trama è sempre la stessa. C’è chi prova a usare un modello per generare codice o markup ripetitivo. All’inizio la procedura sembra funzionare, poi, pagina dopo pagina, l’uscita si sfalda, la coerenza si perde, le stesse istruzioni producono varianti divergenti, e il costo di correzione supera quello di fare il lavoro a mano. C’è chi usa il modello su contenuti specialistici (musica, armonia, analisi di testi complessi) e ottiene risposte formalmente ben confezionate ma concettualmente vuote. Dalle frasi lunghe con lessico corretto, ma regole sbagliate in modo grossolano, come se il sistema imitasse il rumore di fondo della disciplina senza averne mai incontrato la struttura. Il meccanismo è sempre lo stesso, in ambito tecnico succede lo stesso: conversioni numeriche semplici, corrette per le prime richieste, cominciano a deragliare non appena si aumenta leggermente la complessità o la quantità di esempi. La procedura non si stabilizza, non si “irrobustisce”, si ridispone ogni volta come se fosse la prima. Quando si passa al dominio fattuale, la cosa diventa più inquietante: cronologie storiche riscritte con sicurezza, programmi esistiti dichiarati inesistenti o viceversa, riferimenti geografici inventati, dettagli biografici attribuiti a persone reali senza alcuna base; solo chi conosce già l’argomento ha gli strumenti per riconoscere l’invenzione. Chi non sa, prende atto. E integra. Nel dominio medico il pattern è ancora più evidente (alla faccia dei racconti metaforici e appezzotati fatti a botte di epistemia). Un referto viene interpretato con apparente competenza, alcuni dettagli sono spiegati in modo plausibile, poi una sigla viene proiettata in un contesto completamente incompatibile (ostetrico in presenza di un apparato genitale maschile), e il sistema razionalizza l’errore invece di riconoscerlo. Non dice “non lo so”, dice “ho capito, è un refuso”. Nella produzione di testi culturali (guida turistica, analisi letteraria, citazione poetica) si vede l’altro lato della stessa cosa, ovvero la capacità di generare un testo perfettamente leggibile, tonalmente adeguato, ritmato nel modo “giusto”, ma privo di informazioni. Pagine intere che potresti spostare da un luogo all’altro del mondo senza che cambi nulla. Infine ci sono i casi di delega integrale con strumenti configurati per monitorare notizie, che ripropongono come “nuovi” articoli vecchi di mesi, oppure ne saltano di rilevanti senza criterio apparente; manager convinti di risparmiare tempo affidando a un modello la ricostruzione di cifre complesse, che si ritrovano con numeri sbagliati di ordini di grandezza, ma esposti con tale sicurezza lessicale da passare il primo vaglio superficiale.
Quello che tiene insieme tutte queste situazioni non è il singolo errore, ma la combinazione di tre elementi: la fluidità del linguaggio, la pressione verso le aree ad alta densità di dato e l’assenza di una rappresentazione del mondo che faccia da vincolo. L’idea bislacca, ma molto diffusa, che “basterebbe cambiare la base di conoscenza” per risolvere il problema è la versione aggiornata della vecchia fede nella fonte giusta. Come se il difetto fosse “cosa ha letto il modello”, e non il modo in cui funziona. Aggiungere più dati, o dati migliori, può ridurre alcuni errori di superficie, ma questi sistemi non operano su un modello del mondo, non possiedono strutture interne che garantiscano coerenza temporale, causale o concettuale. Operano su distribuzioni di probabilità condizionate: massimizzano la plausibilità linguistica locale, frase per frase, token per token. Quando c’è molta informazione su un certo periodo, un certo evento, un certo modo di parlare, il gradiente le spinge lì, anche se tu stai chiedendo altro. Quando una spiegazione è stilisticamente convincente, la produce, anche in assenza di un criterio che la colleghi a qualcosa di vero. L’EpistemIA nasce esattamente in questo punto di contatto: dove un meccanismo cieco rispetto al mondo incontra un utente che cerca conoscenza, non testo. L’utente vede coerenza grammaticale, tono competente, riferimenti plausibili, e scambia tutto questo per prova. Ma il modello non “sa” se ciò che dice è vero; non ha un luogo interno dove la verità possa essere rappresentata o controllata. La verifica, se avviene, è sempre esterna: siamo noi. E proprio mentre ci affidiamo al sistema per risparmiarci la fatica della verifica, la verifica stessa scompare dall’orizzonte cognitivo: non viene più concepita come fase necessaria del processo, perché è delegata. Infatti il numero di ricercatori indipendenti, dotti-immaginari e tutto il cucuzzaro di gente che dice menate cresce ogni giorno di più. Per questo i vostri esempi sono così importanti: mostrano che non siamo davanti a una collezione di bug da correggere con l’aggiornamento successivo, ma a una trasformazione strutturale del rapporto tra linguaggio e conoscenza. Non è un problema di “accuratezza percentuale”, è lo slittamento da un ecosistema informativo basato sulla ricerca e sul confronto di fonti a uno basato sulla simulazione continua di risposte plausibili. Se non teniamo fermo questo punto, ci ritroviamo a discutere di queste tecnologie come se fossero motori di ricerca più evoluti o assistenti infallibili, mentre sono un’altra cosa. Sono interfacce che ricostruiscono il mondo a partire da come ne abbiamo scritto, non da com'è. Continuare a raccogliere casi non serve a fare l’elenco degli errori, ma a mappare il perimetro di questa nuova condizione: un ambiente in cui la facilità di produzione di testo può dare l’impressione che la conoscenza sia a portata di chat, mentre in realtà si è solo spostato, e reso invisibile, il lavoro più importante: quello della verifica.
grazie del rimando siamo sempre lì: i sistemi di IA producono testo. e sono generativi quindi ad ogni run producono testo un po' differente. quindi fanno ciò per cui sono costruiti: quindi usarli e prendere per validi/veri i loro output parla più dell'inadeguata formazione di chi li usa, che di una malignità dei sistemi di IA il di più di Quattrociocchi secondo me è nel finale: > L’EpistemIA nasce esattamente in questo punto di contatto: dove un > meccanismo cieco rispetto al mondo incontra un utente che cerca > conoscenza, non testo. L’utente vede coerenza grammaticale, tono > competente, riferimenti plausibili, e scambia tutto questo per prova. > Ma il modello non “sa” se ciò che dice è vero; non ha un luogo interno > dove la verità possa essere rappresentata o controllata. La verifica, > se avviene, è sempre esterna: siamo noi. E proprio mentre ci affidiamo > al sistema per risparmiarci la fatica della verifica, la verifica > stessa scompare dall’orizzonte cognitivo: non viene più concepita come > fase necessaria del processo, perché è delegata. > Infatti il numero di ricercatori indipendenti, dotti-immaginari e > tutto il cucuzzaro di gente che dice menate cresce ogni giorno di più. > Per questo i vostri esempi sono così importanti: mostrano che non > siamo davanti a una collezione di bug da correggere con > l’aggiornamento successivo, ma a una trasformazione strutturale del > rapporto tra linguaggio e conoscenza. Non è un problema di > “accuratezza percentuale”, è lo slittamento da un ecosistema > informativo basato sulla ricerca e sul confronto di fonti a uno basato > sulla simulazione continua di risposte plausibili. Se non teniamo > fermo questo punto, ci ritroviamo a discutere di queste tecnologie > come se fossero motori di ricerca più evoluti o assistenti > infallibili, mentre sono un’altra cosa. > Sono interfacce che ricostruiscono il mondo a partire da come ne > abbiamo scritto, non da com'è. > Continuare a raccogliere casi non serve a fare l’elenco degli errori, > ma a mappare il perimetro di questa nuova condizione: un ambiente in > cui la facilità di produzione di testo può dare l’impressione che la > conoscenza sia a portata di chat, mentre in realtà si è solo spostato, > e reso invisibile, il lavoro più importante: quello della verifica. 1) la verifica, se avviene, è sempre esterna: siamo noi / si è solo spostato, e reso invisibile, il lavoro più importante: quello della verifica 2) lo slittamento da un sistema informativo basato sulla ricerca e sul confronto di fonti a uno basato sulla simulazione continua di risposte plausibili 3) queste tecnologie non sono motori di ricerca, sono interfacce che ricostruiscono il mondo a partire da come ne abbiamo scritto perché noi qui discutiamo dei limiti, delle inadeguatezze, dell'inutilità, nei vari ambiti: ma là fuori il cucuzzaro di gente che dice menate cresce ogni giorno di più. e quindi occorre - penso ad esempio tutti noi che insegniamo - costruire consapevolezza su alcuni temi principali (nella cui linea vedo i tre punti che ho estratto da Q., ma ce ne possono essere anche altri) che sono stabili a prescindere dal modello, dalla sottoversione, dal parametro in input ecc. ecc. ad analogia con il "Manifesto della comunicazione non ostile" con i suoi 10 punti, si potrebbe concepire, pensare, scrivere qui, un [Manifesto per l'uso consapevole dell'IA]? perché vedo il rischio di un "dum Romae consulitur Saguntum expugnatur" - mentre a Roma si discute Sagunto viene espugnata. cioè là fuori l'IA viene usata senza la minima cautela o consapevolezza (da alcuni con massima consapevolezza, certo, ma per gestire tutti gli altri incauti/inconsapevoli) e chi sa deve fare cose. Maurizio Il 18/11/25 08:31, Alfredo Bregni ha scritto: > > Ho trovato su facebook questo "divertente" (per me) post di Walter > Quattrociocchi (https://www.facebook.com/share/p/1FuLevWrGQ/ > <https://www.facebook.com/share/p/1FuLevWrGQ/>); relata refero. > > *Quando si scambia un motore linguistico per altro* > > Qualche tempo fa spiegavo agli studenti a cosa si va incontro con un > esempio pratico usando gli LLM per fare analisi dei dati. > Ho preso una serie di dati epidemiologici dal 2010 al 2014 e ho > chiesto al modello di costruire un grafico. Il risultato conteneva > anche valori del 2020–2021, cioè il periodo in cui la disponibilità di > dati esplode per via della pandemia. Non ha “rispettato i dati”; ha > seguito il punto di massima densità informativa. > Questi sistemi non “leggono” il tuo dataset, si muovono in uno spazio > linguistico che è già stratificato intorno alle zone dove il dato è > più abbondante, più ripetuto, più recente, più statisticamente > conveniente. Io gli chiedo 2010–2014; lui mi porta comunque a > 2020–2021 perché lì il terreno è più fertile, più denso, più “sicuro” > dal punto di vista della plausibilità. > Se metto accanto a questo esperimento quello che via via raccolgo e > annoto, la trama è sempre la stessa. C’è chi prova a usare un modello > per generare codice o markup ripetitivo. All’inizio la procedura > sembra funzionare, poi, pagina dopo pagina, l’uscita si sfalda, la > coerenza si perde, le stesse istruzioni producono varianti divergenti, > e il costo di correzione supera quello di fare il lavoro a mano. > C’è chi usa il modello su contenuti specialistici (musica, armonia, > analisi di testi complessi) e ottiene risposte formalmente ben > confezionate ma concettualmente vuote. Dalle frasi lunghe con lessico > corretto, ma regole sbagliate in modo grossolano, come se il sistema > imitasse il rumore di fondo della disciplina senza averne mai > incontrato la struttura. > Il meccanismo è sempre lo stesso, in ambito tecnico succede lo stesso: > conversioni numeriche semplici, corrette per le prime richieste, > cominciano a deragliare non appena si aumenta leggermente la > complessità o la quantità di esempi. La procedura non si stabilizza, > non si “irrobustisce”, si ridispone ogni volta come se fosse la prima. > Quando si passa al dominio fattuale, la cosa diventa più inquietante: > cronologie storiche riscritte con sicurezza, programmi esistiti > dichiarati inesistenti o viceversa, riferimenti geografici inventati, > dettagli biografici attribuiti a persone reali senza alcuna base; solo > chi conosce già l’argomento ha gli strumenti per riconoscere > l’invenzione. Chi non sa, prende atto. E integra. > Nel dominio medico il pattern è ancora più evidente (alla faccia dei > racconti metaforici e appezzotati fatti a botte di epistemia). Un > referto viene interpretato con apparente competenza, alcuni dettagli > sono spiegati in modo plausibile, poi una sigla viene proiettata in un > contesto completamente incompatibile (ostetrico in presenza di un > apparato genitale maschile), e il sistema razionalizza l’errore invece > di riconoscerlo. Non dice “non lo so”, dice “ho capito, è un refuso”. > Nella produzione di testi culturali (guida turistica, analisi > letteraria, citazione poetica) si vede l’altro lato della stessa cosa, > ovvero la capacità di generare un testo perfettamente leggibile, > tonalmente adeguato, ritmato nel modo “giusto”, ma privo di informazioni. > Pagine intere che potresti spostare da un luogo all’altro del mondo > senza che cambi nulla. > Infine ci sono i casi di delega integrale con strumenti configurati > per monitorare notizie, che ripropongono come “nuovi” articoli vecchi > di mesi, oppure ne saltano di rilevanti senza criterio apparente; > manager convinti di risparmiare tempo affidando a un modello la > ricostruzione di cifre complesse, che si ritrovano con numeri > sbagliati di ordini di grandezza, ma esposti con tale sicurezza > lessicale da passare il primo vaglio superficiale. > > Quello che tiene insieme tutte queste situazioni non è il singolo > errore, ma la combinazione di tre elementi: la fluidità del > linguaggio, la pressione verso le aree ad alta densità di dato e > l’assenza di una rappresentazione del mondo che faccia da vincolo. > L’idea bislacca, ma molto diffusa, che “basterebbe cambiare la base di > conoscenza” per risolvere il problema è la versione aggiornata della > vecchia fede nella fonte giusta. Come se il difetto fosse “cosa ha > letto il modello”, e non il modo in cui funziona. Aggiungere più dati, > o dati migliori, può ridurre alcuni errori di superficie, ma questi > sistemi non operano su un modello del mondo, non possiedono strutture > interne che garantiscano coerenza temporale, causale o concettuale. > Operano su distribuzioni di probabilità condizionate: massimizzano la > plausibilità linguistica locale, frase per frase, token per token. > Quando c’è molta informazione su un certo periodo, un certo evento, un > certo modo di parlare, il gradiente le spinge lì, anche se tu stai > chiedendo altro. Quando una spiegazione è stilisticamente convincente, > la produce, anche in assenza di un criterio che la colleghi a qualcosa > di vero. > L’EpistemIA nasce esattamente in questo punto di contatto: dove un > meccanismo cieco rispetto al mondo incontra un utente che cerca > conoscenza, non testo. L’utente vede coerenza grammaticale, tono > competente, riferimenti plausibili, e scambia tutto questo per prova. > Ma il modello non “sa” se ciò che dice è vero; non ha un luogo interno > dove la verità possa essere rappresentata o controllata. La verifica, > se avviene, è sempre esterna: siamo noi. E proprio mentre ci affidiamo > al sistema per risparmiarci la fatica della verifica, la verifica > stessa scompare dall’orizzonte cognitivo: non viene più concepita come > fase necessaria del processo, perché è delegata. > Infatti il numero di ricercatori indipendenti, dotti-immaginari e > tutto il cucuzzaro di gente che dice menate cresce ogni giorno di più. > Per questo i vostri esempi sono così importanti: mostrano che non > siamo davanti a una collezione di bug da correggere con > l’aggiornamento successivo, ma a una trasformazione strutturale del > rapporto tra linguaggio e conoscenza. Non è un problema di > “accuratezza percentuale”, è lo slittamento da un ecosistema > informativo basato sulla ricerca e sul confronto di fonti a uno basato > sulla simulazione continua di risposte plausibili. Se non teniamo > fermo questo punto, ci ritroviamo a discutere di queste tecnologie > come se fossero motori di ricerca più evoluti o assistenti > infallibili, mentre sono un’altra cosa. > Sono interfacce che ricostruiscono il mondo a partire da come ne > abbiamo scritto, non da com'è. > Continuare a raccogliere casi non serve a fare l’elenco degli errori, > ma a mappare il perimetro di questa nuova condizione: un ambiente in > cui la facilità di produzione di testo può dare l’impressione che la > conoscenza sia a portata di chat, mentre in realtà si è solo spostato, > e reso invisibile, il lavoro più importante: quello della verifica. > > ------------------------------------------------------------------------ non ci sono altri giorni che questi nostri giorni italo calvino, il cavaliere inesistente ------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Io ho cercato di scrivere una poesia con un foglio excel e i risultati sono stati ugualmente deludenti
Il giorno 18 nov 2025, alle ore 12:02, maurizio lana <maurizio.lana@uniupo.it> ha scritto:
Qualche tempo fa spiegavo agli studenti a cosa si va incontro con un esempio pratico usando gli LLM per fare analisi dei dati. Ho preso una serie di dati epidemiologici dal 2010 al 2014 e ho chiesto al modello di costruire un grafico. Il risultato conteneva anche valori del 2020–2021, cioè il periodo in cui la disponibilità di dati esplode per via della pandemia. Non ha “rispettato i dati”; ha seg
Con un foglio di calcolo (a meno che tu sia finanziato da Microsoft) :D Flavia Marzano *Questo documento è digitale e vorrei che (digi)tale restasse :) * *Please consider the environmental impact before printing this e-mail* *Avviso di riservatezza* *Le informazioni contenute nella presente comunicazione e i relativi allegati sono destinate esclusivamente alle persone o alla Società sopraindicati. La diffusione, distribuzione e/o copiatura del documento trasmesso da parte di qualsiasi soggetto diverso dal destinatario è proibita ai sensi dell'art. 616 c.p., che ai sensi del D.Lgs 196/2003. Se avete ricevuto questo messaggio per errore vi preghiamo di distruggerlo e di informarmi immediatamente.* Il giorno mar 18 nov 2025 alle ore 14:00 Guido Vetere < vetere.guido@gmail.com> ha scritto:
Io ho cercato di scrivere una poesia con un foglio excel e i risultati sono stati ugualmente deludenti
Il giorno 18 nov 2025, alle ore 12:02, maurizio lana < maurizio.lana@uniupo.it> ha scritto:
Qualche tempo fa spiegavo agli studenti a cosa si va incontro con un esempio pratico usando gli LLM per fare analisi dei dati. Ho preso una serie di dati epidemiologici dal 2010 al 2014 e ho chiesto al modello di costruire un grafico. Il risultato conteneva anche valori del 2020–2021, cioè il periodo in cui la disponibilità di dati esplode per via della pandemia. Non ha “rispettato i dati”; ha seg
L’altro giorno ho detto jeep invece di fuoristrada, manderò la parcella a Stellantis :-) Besos, G
Il giorno 18 nov 2025, alle ore 16:07, Flavia Marzano <flavia.marzano@gmail.com> ha scritto:
Con un foglio di calcolo (a meno che tu sia finanziato da Microsoft) :D
Flavia Marzano
Questo documento è digitale e vorrei che (digi)tale restasse :)
Please consider the environmental impact before printing this e-mail
Avviso di riservatezza Le informazioni contenute nella presente comunicazione e i relativi allegati sono destinate esclusivamente alle persone o alla Società sopraindicati. La diffusione, distribuzione e/o copiatura del documento trasmesso da parte di qualsiasi soggetto diverso dal destinatario è proibita ai sensi dell'art. 616 c.p., che ai sensi del D.Lgs 196/2003. Se avete ricevuto questo messaggio per errore vi preghiamo di distruggerlo e di informarmi immediatamente.
Il giorno mar 18 nov 2025 alle ore 14:00 Guido Vetere <vetere.guido@gmail.com <mailto:vetere.guido@gmail.com>> ha scritto:
Io ho cercato di scrivere una poesia con un foglio excel e i risultati sono stati ugualmente deludenti
Il giorno 18 nov 2025, alle ore 12:02, maurizio lana <maurizio.lana@uniupo.it <mailto:maurizio.lana@uniupo.it>> ha scritto:
Qualche tempo fa spiegavo agli studenti a cosa si va incontro con un esempio pratico usando gli LLM per fare analisi dei dati. Ho preso una serie di dati epidemiologici dal 2010 al 2014 e ho chiesto al modello di costruire un grafico. Il risultato conteneva anche valori del 2020–2021, cioè il periodo in cui la disponibilità di dati esplode per via della pandemia. Non ha “rispettato i dati”; ha seg
lo so che volevi farci pensare che "ad ogni scopo serve lo strumento adatto", ma noi lo sappiamo (che un LLM non va bene per le stats e un foglio di calcolo non va bene per la poesia, ma non sono sicuro della seconda), il problema è che la persona media non lo sa e infatti... usa i fogli di calcolo come database! On 18/11/2025 13:49, Guido Vetere wrote:
Io ho cercato di scrivere una poesia con un foglio excel e i risultati sono stati ugualmente deludenti
Il giorno 18 nov 2025, alle ore 12:02, maurizio lana <maurizio.lana@uniupo.it> ha scritto:
Qualche tempo fa spiegavo agli studenti a cosa si va incontro con un esempio pratico usando gli LLM per fare analisi dei dati. Ho preso una serie di dati epidemiologici dal 2010 al 2014 e ho chiesto al modello di costruire un grafico. Il risultato conteneva anche valori del 2020–2021, cioè il periodo in cui la disponibilità di dati esplode per via della pandemia. Non ha “rispettato i dati”; ha seg
-- Andrea Trentini ⠠⠵ - http://atrent.it - public key ID: 0xA7A91E3B - Dip.to di Informatica - Università degli Studi di Milano Cittadinanza Digitale e Tecnocivismo - https://www.ledizioni.it/prodotto/cittadinanza-digitale-tecnocivismo - https://edizionithemis.it/catalogo/digitale-e-societa/dal-tecnocivismo-alla-... Sistemi Embedded - https://www.ledizioni.it/prodotto/a-carraturo-a-trentini-sistemi-embedded-te... [se vedete un allegato OpenPGP_0x72C15962A7A91E3B.asc e non riuscite ad aprirlo NON preoccupatevi, è la mia firma digitale, alcuni programmi di posta elettronica (outlook, gmail, ...) non sanno gestirla]
Quando la persona media sbaglia strumento, Quattrosciocchi indica lo strumento
Il giorno 18 nov 2025, alle ore 16:32, Andrea Trentini <ego@atrent.it> ha scritto:
lo so che volevi farci pensare che "ad ogni scopo serve lo strumento adatto", ma noi lo sappiamo (che un LLM non va bene per le stats e un foglio di calcolo non va bene per la poesia, ma non sono sicuro della seconda), il problema è che la persona media non lo sa e infatti... usa i fogli di calcolo come database!
On 18/11/2025 13:49, Guido Vetere wrote:
Io ho cercato di scrivere una poesia con un foglio excel e i risultati sono stati ugualmente deludenti
Il giorno 18 nov 2025, alle ore 12:02, maurizio lana <maurizio.lana@uniupo.it> ha scritto:
Qualche tempo fa spiegavo agli studenti a cosa si va incontro con un esempio pratico usando gli LLM per fare analisi dei dati. Ho preso una serie di dati epidemiologici dal 2010 al 2014 e ho chiesto al modello di costruire un grafico. Il risultato conteneva anche valori del 2020–2021, cioè il periodo in cui la disponibilità di dati esplode per via della pandemia. Non ha “rispettato i dati”; ha seg
-- Andrea Trentini ⠠⠵ - http://atrent.it - public key ID: 0xA7A91E3B - Dip.to di Informatica - Università degli Studi di Milano
Cittadinanza Digitale e Tecnocivismo - https://www.ledizioni.it/prodotto/cittadinanza-digitale-tecnocivismo - https://edizionithemis.it/catalogo/digitale-e-societa/dal-tecnocivismo-alla-...
Sistemi Embedded - https://www.ledizioni.it/prodotto/a-carraturo-a-trentini-sistemi-embedded-te...
[se vedete un allegato OpenPGP_0x72C15962A7A91E3B.asc e non riuscite ad aprirlo NON preoccupatevi, è la mia firma digitale, alcuni programmi di posta elettronica (outlook, gmail, ...) non sanno gestirla] <OpenPGP_0x72C15962A7A91E3B.asc>
On Tue, 18 Nov 2025 16:32:29 +0100 Andrea Trentini wrote:
il problema è che la persona media non lo sa e infatti... usa i fogli di calcolo come database!
Il problema Andrea è che "la persona media" non può trarre alcun beneficio da una tecnologia¹ progettata per ingannarla². L'unico utilizzo possibile di strumenti come Gemini o ChatGPT è ingannare chi non ne comprende appieno il funzionamento. By design. Sono perfetti per diffondere disinformazione o bachi software. Ogni qualvolta l'obiettivo è manipolare il maggior numero possibile di persone tramite messaggi (comandi, li chiamerebbe Weiner) privi di significato, questi strumenti sono imbattibili. E' per questo che Microsoft/OpenAI, Google & friends hanno fretta di infilarli in qualsiasi applicazione. Perché non hanno alcuna altra utilità commerciale, e perché qualcuno paghi per manipolare la gente attraverso di essi, quella gente deve anzitutto costretta ad usarli (in modo da poter essere ingannata sulla loro natura e utilità). Giacomo ¹ "tecnologia" intesa come realizzazione concreta, non nel senso astratto utilizzato da Giuseppe Attardi, come insieme di conoscenze scientifiche potenzialmente applicabili ² ovvero passare il test di Turing
Ciao Maurizio, On Tue, 18 Nov 2025 12:02:20 +0100 maurizio lana wrote:
si potrebbe concepire, pensare, scrivere qui, un [Manifesto per l'uso consapevole dell'IA]?
Anzitutto sotto il cappello della "IA" vengono fatte rientrare tecnologie diversissime, da Prolog a ChatGPT. Con la notevole differenza che il primo su può usare consapevolmente dopo 3-4 settimane di studio, il secondo dopo 3-4 decenni di studio. Di quale delle centinaia di tecnologie che vengono finanziate inseguendo la fantasia (allucinazione?) di un'intelligenza artificiale, vorremmo proporre un uso consapevole? Suppongo (ma correggimi se sbaglio) che tu faccia riferimento agli LLM commerciali, i vari GitHub CopyALot, ChatGPT, Gemini etc... Si tratta di tecnologie che una persona consapevole del loro funzionamento può usare SOLO per ingannare uno o più esseri umani (incluso, eventualmente, sé stesso). Non saprei proprio come scriverlo in un manifesto, ma in un contesto universitario, potresti organizzare un corso sull'uso consapevole di questi strumenti, spiegando agli studenti come creare profili social fittizi, con foto fittizie, personalità fittizie e idee fittizie, e come farli interagire con persone ignare sulla piattaforma di interesse. Gli studenti, durante il corso dovrebbero provare a diffondere una credenza falsa (ma plausibile), usando anche tutti i dati raccolti dalle interazioni con gli altri utenti. Al termine del corso poi dovrebbero contattare gli utenti ignari, intervistarli e rivelargli l'inganno. Sono CERTO che sarebbe estremamente istruttivo. ;-) Gli studenti imparerebbero a cosa servono queste tecnologie, come vengono utilizzate per manipolarli e come utilizzarle nel modo più proficuo possibile, secondo gli scopi per cui sono progettati. Che ne pensi? Se serve una mano per gli aspetti tecnici, potrei persino vincere la repulsione che provo per le aziende che producono questi software e aiutarti a mettere su un minimo di infrastruttura per gli studenti. Giacomo
Io sono molto più laico...: - Intanto sono "confezionatori (statistici) di testi (o altro)", non chissà cosa, non intelligenza; il misfatto principale è averli chiamati "IA" e averci scritto sopra di tutto, così da riempire lo spazio mediatico di "fuffa-e-desiderio" (che mi pare andazzo diffuso, peraltro, e comune mezzo di "pompaggio" di qualsivoglia gadget informatico, serio o demente che sia); - Poi, ognuno li usa (o li fa usare) come vuole e/o più gli conviene; tolto il marketing aggressivo-demenziale, con tutti i risvolti negativi che ha (soprattutto sulla psiche della audience, ...e io metterei il dito lì, e farei qualche legge sul millantato credito in informatica che scuoi sulla pubblica piazza i confezionatori di nomi), di male non so cosa resti, se non il "problema creduloni" (che peraltro ha fatto proseliti nelle religioni, in politica, ...e per la Terra piatta, cosicché il danno degli LLM mi sembra ridicolo al confronto); - Dopodiché, finiti la fuffa e il polverone, c'è chi si informa su come funziona questo o quello (e sono un po' meglio dei motori di ricerca, peraltro già "colonizzati"), con almeno l'indicazione che possono dire fregnacce. Voglio dire: - Metterei le cose in prospettiva, fra: . Quello che è comune al "marketing" informatico; . Quello che è comune alla normale predazione / manipolazione fatta anche con le zucchine. - Non vedrei del male nello strumento in sé, perché non è una pistola o una bomba, ma ...un "confezionatore di testi", perfetto per predisporre discorsi politici o pubblicitari, riassumere dati di fatto (veri o no è altro tema) in modo strutturato (mi hanno insegnato a fare così in consulenza, e mi diverte vedere che quasi ogni discorso struttuato sul web viene da un'IA: deve essere più facile per tenere le cose in ordine, a meno che non scrivano anche romanzi o favole per bambini, cosa in cui non mi sono finora imbattuto), ...e non saprei cos'altro. In sintesi, sono il risultato di un grande sforzo in una direzione fasulla, venduti per quel che non sono, utili a fare in fretta quando uno ha fretta, insomma un portato dei tempi, con i problemi che sono già lì ben prima che arrivino gli LLM a farcene parlare (probabilmente anche questo in direzioni fasulle). Ecco, sì: sono ottime armi di distrAzione di massa. Qui convengo. ----- Original Message ----- From: Giacomo Tesio To: nexa@server-nexa.polito.it Sent: Tuesday, November 18, 2025 6:58 PM Subject: Re: [nexa] Roma e Sagunto (era Walter Quattrociocchi, post su facebook) Ciao Maurizio, On Tue, 18 Nov 2025 12:02:20 +0100 maurizio lana wrote:
si potrebbe concepire, pensare, scrivere qui, un [Manifesto per l'uso consapevole dell'IA]?
Anzitutto sotto il cappello della "IA" vengono fatte rientrare tecnologie diversissime, da Prolog a ChatGPT. Con la notevole differenza che il primo su può usare consapevolmente dopo 3-4 settimane di studio, il secondo dopo 3-4 decenni di studio. Di quale delle centinaia di tecnologie che vengono finanziate inseguendo la fantasia (allucinazione?) di un'intelligenza artificiale, vorremmo proporre un uso consapevole? Suppongo (ma correggimi se sbaglio) che tu faccia riferimento agli LLM commerciali, i vari GitHub CopyALot, ChatGPT, Gemini etc... Si tratta di tecnologie che una persona consapevole del loro funzionamento può usare SOLO per ingannare uno o più esseri umani (incluso, eventualmente, sé stesso). Non saprei proprio come scriverlo in un manifesto, ma in un contesto universitario, potresti organizzare un corso sull'uso consapevole di questi strumenti, spiegando agli studenti come creare profili social fittizi, con foto fittizie, personalità fittizie e idee fittizie, e come farli interagire con persone ignare sulla piattaforma di interesse. Gli studenti, durante il corso dovrebbero provare a diffondere una credenza falsa (ma plausibile), usando anche tutti i dati raccolti dalle interazioni con gli altri utenti. Al termine del corso poi dovrebbero contattare gli utenti ignari, intervistarli e rivelargli l'inganno. Sono CERTO che sarebbe estremamente istruttivo. ;-) Gli studenti imparerebbero a cosa servono queste tecnologie, come vengono utilizzate per manipolarli e come utilizzarle nel modo più proficuo possibile, secondo gli scopi per cui sono progettati. Che ne pensi? Se serve una mano per gli aspetti tecnici, potrei persino vincere la repulsione che provo per le aziende che producono questi software e aiutarti a mettere su un minimo di infrastruttura per gli studenti. Giacomo
Ciao a tutti, condivido un articolo di Data room: https://www.corriere.it/dataroom-milena-gabanelli/non-usare-chatgpt-prima-di... Su questo possiamo concordare quasi tutti? Un paio di frasi non sono corrette, ma il resto mi sembra ragionevole e condivisibile. Andrea On Tue, Nov 18, 2025 at 7:51 PM Alfredo Bregni <abregni@iperv.it> wrote:
Io sono molto più laico...: - Intanto sono "confezionatori (statistici) di testi (o altro)", non chissà cosa, non intelligenza; il misfatto principale è averli chiamati "IA" e averci scritto sopra di tutto, così da riempire lo spazio mediatico di "fuffa-e-desiderio" (che mi pare andazzo diffuso, peraltro, e comune mezzo di "pompaggio" di qualsivoglia gadget informatico, serio o demente che sia); - Poi, ognuno li usa (o li fa usare) come vuole e/o più gli conviene; tolto il marketing aggressivo-demenziale, con tutti i risvolti negativi che ha (soprattutto sulla psiche della audience, ...e io metterei il dito lì, e farei qualche legge sul millantato credito in informatica che scuoi sulla pubblica piazza i confezionatori di nomi), di male non so cosa resti, se non il "problema creduloni" (che peraltro ha fatto proseliti nelle religioni, in politica, ...e per la Terra piatta, cosicché il danno degli LLM mi sembra ridicolo al confronto); - Dopodiché, finiti la fuffa e il polverone, c'è chi si informa su come funziona questo o quello (e sono un po' meglio dei motori di ricerca, peraltro già "colonizzati"), con almeno l'indicazione che possono dire fregnacce.
Voglio dire: - Metterei le cose in prospettiva, fra: . Quello che è comune al "marketing" informatico; . Quello che è comune alla normale predazione / manipolazione fatta anche con le zucchine. - Non vedrei del male nello strumento in sé, perché non è una pistola o una bomba, ma ...un "confezionatore di testi", perfetto per predisporre discorsi politici o pubblicitari, riassumere dati di fatto (veri o no è altro tema) in modo strutturato (mi hanno insegnato a fare così in consulenza, e mi diverte vedere che quasi ogni discorso struttuato sul web viene da un'IA: deve essere più facile per tenere le cose in ordine, a meno che non scrivano anche romanzi o favole per bambini, cosa in cui non mi sono finora imbattuto), ...e non saprei cos'altro.
In sintesi, sono il risultato di un grande sforzo in una direzione fasulla, venduti per quel che non sono, utili a fare in fretta quando uno ha fretta, insomma un portato dei tempi, con i problemi che sono già lì ben prima che arrivino gli LLM a farcene parlare (probabilmente anche questo in direzioni fasulle). Ecco, sì: sono ottime armi di distrAzione di massa. Qui convengo.
----- Original Message ----- *From:* Giacomo Tesio <giacomo@tesio.it> *To:* nexa@server-nexa.polito.it *Sent:* Tuesday, November 18, 2025 6:58 PM *Subject:* Re: [nexa] Roma e Sagunto (era Walter Quattrociocchi, post su facebook)
Ciao Maurizio,
On Tue, 18 Nov 2025 12:02:20 +0100 maurizio lana wrote:
si potrebbe concepire, pensare, scrivere qui, un [Manifesto per l'uso consapevole dell'IA]?
Anzitutto sotto il cappello della "IA" vengono fatte rientrare tecnologie diversissime, da Prolog a ChatGPT. Con la notevole differenza che il primo su può usare consapevolmente dopo 3-4 settimane di studio, il secondo dopo 3-4 decenni di studio.
Di quale delle centinaia di tecnologie che vengono finanziate inseguendo la fantasia (allucinazione?) di un'intelligenza artificiale, vorremmo proporre un uso consapevole?
Suppongo (ma correggimi se sbaglio) che tu faccia riferimento agli LLM commerciali, i vari GitHub CopyALot, ChatGPT, Gemini etc...
Si tratta di tecnologie che una persona consapevole del loro funzionamento può usare SOLO per ingannare uno o più esseri umani (incluso, eventualmente, sé stesso).
Non saprei proprio come scriverlo in un manifesto, ma in un contesto universitario, potresti organizzare un corso sull'uso consapevole di questi strumenti, spiegando agli studenti come creare profili social fittizi, con foto fittizie, personalità fittizie e idee fittizie, e come farli interagire con persone ignare sulla piattaforma di interesse.
Gli studenti, durante il corso dovrebbero provare a diffondere una credenza falsa (ma plausibile), usando anche tutti i dati raccolti dalle interazioni con gli altri utenti. Al termine del corso poi dovrebbero contattare gli utenti ignari, intervistarli e rivelargli l'inganno.
Sono CERTO che sarebbe estremamente istruttivo. ;-)
Gli studenti imparerebbero a cosa servono queste tecnologie, come vengono utilizzate per manipolarli e come utilizzarle nel modo più proficuo possibile, secondo gli scopi per cui sono progettati.
Che ne pensi?
Se serve una mano per gli aspetti tecnici, potrei persino vincere la repulsione che provo per le aziende che producono questi software e aiutarti a mettere su un minimo di infrastruttura per gli studenti.
Giacomo
caro Giacomo, Il 18/11/25 18:58, Giacomo Tesio ha scritto:
On Tue, 18 Nov 2025 12:02:20 +0100 maurizio lana wrote:
si potrebbe concepire, pensare, scrivere qui, un [Manifesto per l'uso consapevole dell'IA]? Anzitutto sotto il cappello della "IA" vengono fatte rientrare tecnologie diversissime, da Prolog a ChatGPT. Con la notevole differenza che il primo su può usare consapevolmente dopo 3-4 settimane di studio, il secondo dopo 3-4 decenni di studio.
Di quale delle centinaia di tecnologie che vengono finanziate inseguendo la fantasia (allucinazione?) di un'intelligenza artificiale, vorremmo proporre un uso consapevole?
Suppongo (ma correggimi se sbaglio) che tu faccia riferimento agli LLM commerciali, i vari GitHub CopyALot, ChatGPT, Gemini etc...
Si tratta di tecnologie che una persona consapevole del loro funzionamento può usare SOLO per ingannare uno o più esseri umani (incluso, eventualmente, sé stesso). i problema è proprio lì dove scrivi "tecnologie che una persona consapevole del loro funzionamento può usare SOLO per ingannare uno o più esseri umani". quante sono le persone consapevoli? poche, direi. Andrea Bolioli ha scritto "cerchiamo di limitare i rischi e le perdite di tempo. (io uso i sistemi GenAI, non sono luddista)" cioè un uso consapevole e appropriato dei sistemi di IA può dare un aiuto che non si trova in modo differente. esempio: leggendo la frase di Vannevar Bush "publication has been extended far beyond our present ability to make real use of the record" mi sembra di ricordare che in letteratura già al tempo dell’invenzione della stampa si trovano tracce dell'idea che sia difficile acquisire un solida conoscenza delle ora adesso che ci sono così tanti libri e che non siamo in grado di leggerli tutti. questa richiesta data in input al chatbot genera in output un elenco corretto di fonti sul tema, che con successivi input vien focalizzato sul 500-600, o sulla contemporaneità. con un motore di ricerca questo non sarebbe possibile.
con la componente generativa che emerge nel fatto che ripetendo il prompt gli esiti parzialmente cambiano (non ho ho fatto un numero di iterazioni sufficiente a far apparire il degrado dell'output - ma ci proverò)
Non saprei proprio come scriverlo in un manifesto, per quanto capisco è il problema della prima parte di dum Romase consulitur: non c'è dubbio che sia difficile scriverlo in un manifesto; ma se non si si scrive, o non si fanno azioni analoghe, continua l'uso (generalmente) inconsapevole di tecnologie ingannevoli (ma come ho detto ci sono anche possibili usi non ingannevoli ed efficaci; ma quasi sconosciuti) e quindi Sagunto viene espugnata ma in un contesto universitario, potresti organizzare un corso sull'uso consapevole di questi strumenti, spiegando agli studenti come creare profili social fittizi, con foto fittizie, personalità fittizie e idee fittizie, e come farli interagire con persone ignare sulla piattaforma di interesse. Gli studenti, durante il corso dovrebbero provare a diffondere una credenza falsa (ma plausibile), usando anche tutti i dati raccolti dalle interazioni con gli altri utenti. Al termine del corso poi dovrebbero contattare gli utenti ignari, intervistarli e rivelargli l'inganno. Sono CERTO che sarebbe estremamente istruttivo. ;-) Gli studenti imparerebbero a cosa servono queste tecnologie, come vengono utilizzate per manipolarli e come utilizzarle nel modo più proficuo possibile, secondo gli scopi per cui sono progettati. Che ne pensi? Se serve una mano per gli aspetti tecnici, potrei persino vincere la repulsione che provo per le aziende che producono questi software e aiutarti a mettere su un minimo di infrastruttura per gli studenti. costruire esperimenti configura una didattica coinvolgente quindi il concetto mi piace. nel merito, sono leggermente perplesso di proporre agli studenti di farsi ingannatori di altri benché a motivo di studio. ricordo che qualcosa di simile fu già fatto in passato e pubblicato in PNAS Del Vicario, Michela, Alessandro Bessi, Fabiana Zollo, Fabio Petroni, Antonio Scala, Guido Caldarelli, H. Eugene Stanley, e Walter Quattrociocchi. «The spreading of misinformation online». Proceedings of the National Academy of Sciences 113, fasc. 3 (2016): 554–59. https://doi.org/10.1073/pnas.1517441113. ma soprattutto più che sulla comunicazione social preferirei focalizzare sull'uso dei sistemi di IA: con pars destruens che mostra in modo chiaramente percepibile i difetti; pars construens che mostra quali usi sono efficaci
Maurizio ------------------------------------------------------------------------ i ciottoli di yiannis ritsos [non una citazione ma un invito ad una ricerca] ------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Ciao Maurizio, ci sarebbe moltissimo da dire sulla consapevolezza del funzionamento dei LLM commerciali e come questa potrebbe e dovrebbe ispirarne il divieto. Di certo, un ipotetico "modello LLM" programmato statisticamente ed in modo trasparente e perfettamente riproducibile a partire da testi sorgente disponibili liberamente e distribuito sotto una licenza compatibile con quella dei sorgenti da cui deriva algoritmicamente, potrebbe essere usato lecitamente ed eticamente per ottenere output utilizzabili sotto la stessa licenza. Tali "modelli" sono archivi compressi (con perdita) dei testi sorgente espressi come matrici numeriche eseguibili da macchine virtuali pomposamente (ed erroneamente) chiamati "motori inferenziali". Eseguendoli, ne estrai iterativamente una parte statisticamente correlata con l'input iniziale (prompt) e l'output prodotto ad ogni iterazione, ripercorrendo in un certo senso l'archivio di testi lungo le relazioni statistiche via via più frequenti. Anche così, l'utilità del loro output è ingannevole: non corrisponde completamente ad alcuno dei testi archiviati, ma troverai stralci di diversi di essi. Tuttavia ipotizzo che vi possa essere un modo di utilizzarli per diletto, laddove l'utente, che è perfettamente consapevole della loro natura effimera e priva di significato intrinseco li voglia consumare come si consuma la pornografia. Per un programmatore che ne comprende il funzionamento, potrebbe essere anche divertente nel contesto di un videogioco offline, per rendere più realistici i dialoghi con i personaggi e, magari, più varia e imprevedibile l'esperienza di gioco. L'importante, con l'output di tali LLM "trasparenti", sarebbe la piena e costante consapevolezza della finzione, dell'autoinganno e della assenza di un qualsiasi reale significato nella sequenza di lettere interpretata come testo. On Thu, 20 Nov 2025 09:58:11 +0100 maurizio lana wrote:
Andrea Bolioli ha scritto "cerchiamo di limitare i rischi e le perdite di tempo. (io uso i sistemi GenAI, non sono luddista)"
Io sono un hacker, non un luddista. E NON uso alcun sistema di "GenAI". Lo faccio a ragion veduta, per innumerevoli ragioni etiche e pratiche. Ad esempio, non trovo corretto nei confronti del mio datore di lavoro che mi paga per scrivere software finanziario che muove centinaia di milioni di euro ogni anno, rischiare la reputazione di altissima qualità della nostra azienda. Non lo trovo corretto nei confronti dei miei colleghi che si potrebbero trovare a debuggare codice "generato male". E non lo trovo neanche furbo, perché poi spesso i bug più devastanti, quelli che nessuno riesce a riprodurre sistematicamente ancor prima di correggere, tocca sistemarli a me. L'altro giorno per ragioni lavorative ho dovuto assistere all'AngularDay, un workshop organizzato a Verona su un framework GUI sviluppato da Google. Angular è l'apice insuperato della sovra-ingegnerizzazione in javascript: moltissime aziende lo adottano come antidoto (oggettivamente efficace) al caos dell'ecosistema. Come puoi immaginare questi eventi sono spot pubblicitari specializzati per far presa sui programmatori, inframmezzati con qualche intervento effettivamente interessante (ne ho visti tre o quattro, di Laura Pedenaud, di Massimo Artizzu, di Davide Senatore e di Alex Okrushko). Come puoi immaginare, buona parte dell'evento è però stato una sorta di trattamento ludovico atto a convincere gli sviluppatori presenti ad adottare Gemini o altri coding assistant per fare "vibecoding". Tuttavia è stato divertente notare come persino un "Google Developer Expert" che presenta un talk dal titolo "Vibing the Future with Angular: Leveraging Gemini & Web-LLM for Intelligent Experiences" debba ammettere che (cito dalle slide): """ The cost of AI beyond code generation: - Debugging: 5x longer - Security audits: Manual Review required - Technical dept: compounds EXPONENTIALLY - Team velocity: Slows over time """ Le stime sono molto ottimistiche (io ho osservato per più di un 5x nei tempi di risoluzioni dei bug da parte di colleghi che hanno osato mettere in produzione codice prodotto in questo modo, ma Ahsan Ayaz ha anche aggiunto (a voce) che naturalmente, questi sono problemi davvero rilevanti solo se si dovrà mantenere il software: se stai solo facendo un prototipo o un mockup CHE NESSUNO DOVRA' VERAMENTE USARE, puoi non preoccupartene. Ma come vedi, stai di nuovo usando la "AI" per ingannare qualcuno: chi vede il prototipo, te stesso, chi vede il talk etc... Un esempio interessante di questo uso consapevole delle "AI generative" si è verificato recentemente nella comunità che mantiene il compilatore OCaml [1]: https://github.com/ocaml/ocaml/pull/14369 Uno sviluppatore senza alcuna competenza specifica nella scrittura di compilatori ha proposto una patch generata con Cloud da oltre 13 mila righe, specificando di non aver scritto personalmente neanche una riga e di aver solo "guidato" il software. La comunità ovviamente non l'ha inclusa nella codebase, per almeno due ragioni (ma ti invito a leggere la issue, un dialogo talmente alienato da apparire a tratti surreale): - il codice proposto somiglia molto a quello di un altro compilatore (OxCaml) e Cloud ne ha perfino attribuito la paternità ad uno degli sviluppatori (che però NON ha partecipato allo "sviluppo" della patch) - nessuno vuole l'onere di mantenere quel codice che nessuna mente umana davvero conosce e comprende Chi è vittima dell'inganno, in questo caso? Beh anzitutto gli sviluppatori del compilatore OCaml hanno perso un sacco di tempo, ma ne perderebbero molto di più se accettassero la modifica, come spiegava Ahsan Ayaz all'AngularDay. Poi lo è Mark Shinwell, sviluppatore di oxcaml, che si vede attribuito codice che non ha mai scritto (una cosa che credo violi quelli che in Italia vengono definiti diritti morali dell'autore e personalmente vivrei come una violenza offensiva). Lo anche sono gli sviluppatori che leggeranno l'articolo di Joel Reymont che ha accompagnato la creazione della patch (un vero e proprio spot per Claude), senza approfondire la questione. Infine lo è Joel Reymont stesso, che crede di aver fornito un contributo utile alla comunità e non sembra non comprendere assolutamente il rifiuto (e il danno reputazionale che si sta auto-infliggendo).
esempio: leggendo la frase di Vannevar Bush "publication has been extended far beyond our present ability to make real use of the record" mi sembra di ricordare che in letteratura già al tempo dell’invenzione della stampa si trovano tracce dell'idea che sia difficile acquisire un solida conoscenza delle ora adesso che ci sono così tanti libri e che non siamo in grado di leggerli tutti.
In sostanza, la giustificazione dell'esistenza dei motori di ricerca. :-D
questa richiesta data in input al chatbot genera in output un elenco corretto di fonti sul tema, che con successivi input vien focalizzato sul 500-600, o sulla contemporaneità.
L'interpretazione del linguaggio naturale e la sua trasformazione in una serie di filtri specifici per un database immenso come quello di un motore di ricerca, è sicuramente un'applicazione utile delle vector mapping machines (impropriamente dette "reti neurali artificiali"). Molto più problematica è la generazione di eventuali riassunti che hanno una probabilità di non corrispondere al contenuto originale superiore al 40% [2] Ma chi sta ingannando questa applicazione? Beh, Maurizio, perdonami la franchezza, ma la prima vittima dell'inganno sei tu, che non cogliendo il funzionamento (probabile) del software che utilizzi, attribuisci ad un suo componente (il LLM, in questo caso) più rilevanza di quanto non ne abbia. Proprio mentre la bolla IA inizia lentamente a deflagare e i produttori di chatbot hanno un disperato bisogno di believer/supporter. Vieni spinto a credere di aver acquisito una conoscenza che non avresti potuto ottenere senza IA, mentre ciò che te lo impedisce davvero è l'accessibilità del database su cui il software ha effettuato le query. In altri termini, tu credi che l'AI mode di Google che ti permetta di trovare ciò che cerchi, mentre in realtà Google ti impedisce di accedere al suo preziosissimo database direttamente, nascondendoti tutta la conoscenza che vi ha indicizzato se non quella minima parte che sceglie di mostrarti per i propri (non per i tuoi!) scopi. Quali articoli rilevanti ti ha nascosto? Perché? Quali secondari ha incluso? Perché? Quanta parte della risposta è stata determinata dalle ricerché che hai personalmente svolto nei decenni precedenti (tutto accuratamente registrate)? Quanta dalle opinioni che hai espresso pubblicamente? Non lo saprai mai. Ma non ti interessa, vero? E _perché_ non ti interessa? ;-) Ma non sei l'unica vittima di questo inganno. Il tuo uso della "AI generativa" (di cui non conosci precisamente funzionamento, impatto ambientale ed esternalità), ne giustifica l'esistenza anche agli occhi di coloro che ti stanno intorno, dei tuoi studenti etc... che ti stimano e ti sentono fantasticare di "uso consapevole dell'AI" diverso da quello di ingannare qualcuno.
con un motore di ricerca questo non sarebbe possibile.
Certo che lo sarebbe. Non confondere la inputbox di Google con quello che si può fare con un motore di ricerca. Il problema non è la ricerca ma come fornire un'interfaccia di ricerca "facile" da usare senza dover studiare un manuale di 300 pagine. Con un'interfaccia professionale (come un linguaggio di interrogazione, à la SQL) che interrogasse il database di Google, potresti trovare di più, più rapidamente e più precisamente. Ma tu non noti l'infinità di conoscenza che Google ti nasconde. Noti solo le briciole che ti concede se fai il bravo. E attribuisci la qualità alla tecnologia del giorno su cui Google (o chi altri abbia prodotto il chatbot di ricerca che hai utilizza) ha investito (e rischia di perdere) centinaia di miliardi.
Non saprei proprio come scriverlo in un manifesto, per quanto capisco è il problema della prima parte di dum Romase consulitur: non c'è dubbio che sia difficile scriverlo in un manifesto; ma se non si si scrive, o non si fanno azioni analoghe, continua l'uso (generalmente) inconsapevole di tecnologie ingannevoli (ma come ho detto ci sono anche possibili usi non ingannevoli ed efficaci; ma quasi sconosciuti) e quindi Sagunto viene espugnata
No. Tutti gli usi efficaci di questa tecnologia hanno a che fare con l'inganno di esseri umani. Non tutti sono deprecabili. Può succedere che la persona ingannata sia consenziente rispetto all'inganno (io ad esempio, lo sono quando leggo Le Guin o Jordan). Ciò non ne cambia la natura o la funzione cibernetica.
ma in un contesto universitario, potresti organizzare un corso sull'uso consapevole di questi strumenti, spiegando agli studenti come creare profili social fittizi, con foto fittizie, personalità fittizie e idee fittizie, e come farli interagire con persone ignare sulla piattaforma di interesse. Gli studenti, durante il corso dovrebbero provare a diffondere una credenza falsa (ma plausibile), usando anche tutti i dati raccolti dalle interazioni con gli altri utenti. Al termine del corso poi dovrebbero contattare gli utenti ignari, intervistarli e rivelargli l'inganno. Sono CERTO che sarebbe estremamente istruttivo. ;-) [...]
nel merito, sono leggermente perplesso di proporre agli studenti di farsi ingannatori di altri benché a motivo di studio.
I tuoi studenti vengono costantemente ingannati. E sono spesso nude marionette nelle mani di chi li inganna. Dunque imparare a mentire ed ingannare (sopratutto agenti cibernetici molto più potenti di ciascuno di loro) è questione di sopravvivenza. L'alternativa è adattarsi, rassegnarsi più o meno consciamente ad essere privati della propria autonomia cognitiva, accettare che il termine "libertà" venga ridotto alla assenza di vincoli fisici e prepararsi ad essere sempre più trattati non come sudditi, ma come bestiame. Non dubito che esista chi trova l'idea allettante. In fondo, i maiali mangiano tutti i giorni.
ricordo che qualcosa di simile fu già fatto in passato e pubblicato in PNAS Del Vicario, Michela, Alessandro Bessi, Fabiana Zollo, Fabio Petroni, Antonio Scala, Guido Caldarelli, H. Eugene Stanley, e Walter Quattrociocchi. «The spreading of misinformation online». Proceedings of the National Academy of Sciences 113, fasc. 3 (2016): 554–59. https://doi.org/10.1073/pnas.1517441113. ma soprattutto più che sulla comunicazione social preferirei focalizzare sull'uso dei sistemi di IA
Non devo essere stato molto chiaro. Il social network è "solo" la piattaforma dell'esperimento. La finalità didattica del corso sarebbe anzitutto comprendere (non solo capire) qual'è l'uso per cui questi "sistemi di IA" sono ottimizzati, sperimentandolo consapevolmente. La finalità educativa viene invece dal confronto con gli utenti vittime dell'inganno.
con pars destruens che mostra in modo chiaramente percepibile i difetti; pars construens che mostra quali usi sono efficaci
Appunto, questi strumenti sono ottimizzati per ingannare essere umani. Mostra ai tuoi studenti come utilizzarli per questo scopo e gli avrai veramente preparati per il futuro che stanno costruendo per loro. Giacomo [1] per chi non conoscesse il linguaggio OCaml (famiglia ML, storia trentennale etc...) un bel testo che lo usa come strumento educativo è "Lambda Coding in Draft" di Massimo Ghisalberti https://gitlab.com/minimalprocedure/lambda_coding/-/raw/master/lambda_coding... [2] https://www.sciencedirect.com/science/article/pii/S0957417424013228
Di certo, un ipotetico "modello LLM" programmato statisticamente ed in modo trasparente e perfettamente riproducibile a partire da testi sorgente disponibili liberamente e distribuito sotto una licenza compatibile con quella dei sorgenti da cui deriva algoritmicamente, potrebbe essere usato lecitamente ed eticamente per ottenere output utilizzabili sotto la stessa licenza.
E se volessimo realizzarlo questo ipotetico modello LLM? E' da anni che pongo e mi pongo questa domanda. Mettiamo il caso che ti dicessi, ho un'ora di tempo libero a settimana da dedicarmi a questo progetto, dimmi che devo fare e lo faccio, studio, cerco, scrivo codice, ecc. C'è un "server" a cui posso accedere in ssh e da lì iniziare a "sperimentare"? Google ti dà questa possibilità (che poi ovviamente sfrutta adeguatamente). Perchè in Italia non c'è nessun Ente che metta una parte delle proprie macchine a disposizione dei "cittadini"? Non li hanno acquistate con i nostri soldi? Non siamo in piccola percentuale proprietari anche noi? Perché dobbiamo essere solo e soltanto "utenti"? Con il mio piccolo e lento PC posso costruirmi un sistema operativo da zero o quasi (tu l'hai fatto), posso inventare un nuovo linguaggio di programmazione, un nuovo database (Sanfilippo l'ha fatto), posso anche ospitare un server web con migliaia di accessi ma ... non posso fare nulla per creare un LLM "etico". A.
mi fermo su questi 2 punti:
questa richiesta data in input al chatbot genera in output un elenco corretto di fonti sul tema, che con successivi input viene focalizzato sul 500-600, o sulla contemporaneità.
L'interpretazione del linguaggio naturale e la sua trasformazione in una serie di filtri specifici per un database immenso come quello di un motore di ricerca, è sicuramente un'applicazione utile delle vector mapping machines (impropriamente dette "reti neurali artificiali"). Molto più problematica è la generazione di eventuali riassunti che hanno una probabilità di non corrispondere al contenuto originale superiore al 40% [2] applicazione utile: ok. generazione di riassunti: cosa!?! Vieni spinto a credere di aver acquisito una conoscenza che non avresti potuto ottenere senza IA, mentre ciò che te lo impedisce davvero è l'accessibilità del database su cui il software ha effettuato le query.
In altri termini, tu credi che l'AI mode di Google che ti permetta di trovare ciò che cerchi, mentre in realtà Google ti impedisce di accedere al suo preziosissimo database direttamente, nascondendoti tutta la conoscenza che vi ha indicizzato se non quella minima parte che sceglie di mostrarti per i propri (non per i tuoi!) scopi. mai usato l'AI mode di Google e anzi l'ho disattivato a monte per non veder mai comparire le overview (che non sono solo le overview, è l'intera ricerca che viene influenzata e filtrata)
con un motore di ricerca questo non sarebbe possibile. Certo che lo sarebbe. Non confondere la inputbox di Google con quello che si può fare con un motore di ricerca.
Il problema non è la ricerca ma come fornire un'interfaccia di ricerca "facile" da usare senza dover studiare un manuale di 300 pagine. Con un'interfaccia professionale (come un linguaggio di interrogazione, à la SQL) che interrogasse il database di Google, potresti trovare di più, più rapidamente e più precisamente. hic Rodus, hic salta se è vero che con un motore di ricerca questo sarebbe possibile, allora vorrei vedere la procedura
Maurizio Il 23/11/25 14:20, Giacomo Tesio ha scritto:
Ciao Maurizio,
ci sarebbe moltissimo da dire sulla consapevolezza del funzionamento dei LLM commerciali e come questa potrebbe e dovrebbe ispirarne il divieto.
Di certo, un ipotetico "modello LLM" programmato statisticamente ed in modo trasparente e perfettamente riproducibile a partire da testi sorgente disponibili liberamente e distribuito sotto una licenza compatibile con quella dei sorgenti da cui deriva algoritmicamente, potrebbe essere usato lecitamente ed eticamente per ottenere output utilizzabili sotto la stessa licenza.
Tali "modelli" sono archivi compressi (con perdita) dei testi sorgente espressi come matrici numeriche eseguibili da macchine virtuali pomposamente (ed erroneamente) chiamati "motori inferenziali".
Eseguendoli, ne estrai iterativamente una parte statisticamente correlata con l'input iniziale (prompt) e l'output prodotto ad ogni iterazione, ripercorrendo in un certo senso l'archivio di testi lungo le relazioni statistiche via via più frequenti.
Anche così, l'utilità del loro output è ingannevole: non corrisponde completamente ad alcuno dei testi archiviati, ma troverai stralci di diversi di essi. Tuttavia ipotizzo che vi possa essere un modo di utilizzarli per diletto, laddove l'utente, che è perfettamente consapevole della loro natura effimera e priva di significato intrinseco li voglia consumare come si consuma la pornografia.
Per un programmatore che ne comprende il funzionamento, potrebbe essere anche divertente nel contesto di un videogioco offline, per rendere più realistici i dialoghi con i personaggi e, magari, più varia e imprevedibile l'esperienza di gioco.
L'importante, con l'output di tali LLM "trasparenti", sarebbe la piena e costante consapevolezza della finzione, dell'autoinganno e della assenza di un qualsiasi reale significato nella sequenza di lettere interpretata come testo.
On Thu, 20 Nov 2025 09:58:11 +0100 maurizio lana wrote:
Andrea Bolioli ha scritto "cerchiamo di limitare i rischi e le perdite di tempo. (io uso i sistemi GenAI, non sono luddista)" Io sono un hacker, non un luddista.
E NON uso alcun sistema di "GenAI".
Lo faccio a ragion veduta, per innumerevoli ragioni etiche e pratiche. Ad esempio, non trovo corretto nei confronti del mio datore di lavoro che mi paga per scrivere software finanziario che muove centinaia di milioni di euro ogni anno, rischiare la reputazione di altissima qualità della nostra azienda. Non lo trovo corretto nei confronti dei miei colleghi che si potrebbero trovare a debuggare codice "generato male". E non lo trovo neanche furbo, perché poi spesso i bug più devastanti, quelli che nessuno riesce a riprodurre sistematicamente ancor prima di correggere, tocca sistemarli a me.
L'altro giorno per ragioni lavorative ho dovuto assistere all'AngularDay, un workshop organizzato a Verona su un framework GUI sviluppato da Google. Angular è l'apice insuperato della sovra-ingegnerizzazione in javascript: moltissime aziende lo adottano come antidoto (oggettivamente efficace) al caos dell'ecosistema.
Come puoi immaginare questi eventi sono spot pubblicitari specializzati per far presa sui programmatori, inframmezzati con qualche intervento effettivamente interessante (ne ho visti tre o quattro, di Laura Pedenaud, di Massimo Artizzu, di Davide Senatore e di Alex Okrushko).
Come puoi immaginare, buona parte dell'evento è però stato una sorta di trattamento ludovico atto a convincere gli sviluppatori presenti ad adottare Gemini o altri coding assistant per fare "vibecoding".
Tuttavia è stato divertente notare come persino un "Google Developer Expert" che presenta un talk dal titolo "Vibing the Future with Angular: Leveraging Gemini & Web-LLM for Intelligent Experiences" debba ammettere che (cito dalle slide):
""" The cost of AI beyond code generation: - Debugging: 5x longer - Security audits: Manual Review required - Technical dept: compounds EXPONENTIALLY - Team velocity: Slows over time """
Le stime sono molto ottimistiche (io ho osservato per più di un 5x nei tempi di risoluzioni dei bug da parte di colleghi che hanno osato mettere in produzione codice prodotto in questo modo, ma Ahsan Ayaz ha anche aggiunto (a voce) che naturalmente, questi sono problemi davvero rilevanti solo se si dovrà mantenere il software: se stai solo facendo un prototipo o un mockup CHE NESSUNO DOVRA' VERAMENTE USARE, puoi non preoccupartene.
Ma come vedi, stai di nuovo usando la "AI" per ingannare qualcuno: chi vede il prototipo, te stesso, chi vede il talk etc...
Un esempio interessante di questo uso consapevole delle "AI generative" si è verificato recentemente nella comunità che mantiene il compilatore OCaml [1]:https://github.com/ocaml/ocaml/pull/14369
Uno sviluppatore senza alcuna competenza specifica nella scrittura di compilatori ha proposto una patch generata con Cloud da oltre 13 mila righe, specificando di non aver scritto personalmente neanche una riga e di aver solo "guidato" il software.
La comunità ovviamente non l'ha inclusa nella codebase, per almeno due ragioni (ma ti invito a leggere la issue, un dialogo talmente alienato da apparire a tratti surreale):
- il codice proposto somiglia molto a quello di un altro compilatore (OxCaml) e Cloud ne ha perfino attribuito la paternità ad uno degli sviluppatori (che però NON ha partecipato allo "sviluppo" della patch) - nessuno vuole l'onere di mantenere quel codice che nessuna mente umana davvero conosce e comprende
Chi è vittima dell'inganno, in questo caso?
Beh anzitutto gli sviluppatori del compilatore OCaml hanno perso un sacco di tempo, ma ne perderebbero molto di più se accettassero la modifica, come spiegava Ahsan Ayaz all'AngularDay.
Poi lo è Mark Shinwell, sviluppatore di oxcaml, che si vede attribuito codice che non ha mai scritto (una cosa che credo violi quelli che in Italia vengono definiti diritti morali dell'autore e personalmente vivrei come una violenza offensiva).
Lo anche sono gli sviluppatori che leggeranno l'articolo di Joel Reymont che ha accompagnato la creazione della patch (un vero e proprio spot per Claude), senza approfondire la questione.
Infine lo è Joel Reymont stesso, che crede di aver fornito un contributo utile alla comunità e non sembra non comprendere assolutamente il rifiuto (e il danno reputazionale che si sta auto-infliggendo).
esempio: leggendo la frase di Vannevar Bush "publication has been extended far beyond our present ability to make real use of the record" mi sembra di ricordare che in letteratura già al tempo dell’invenzione della stampa si trovano tracce dell'idea che sia difficile acquisire un solida conoscenza delle ora adesso che ci sono così tanti libri e che non siamo in grado di leggerli tutti. In sostanza, la giustificazione dell'esistenza dei motori di ricerca. :-D
questa richiesta data in input al chatbot genera in output un elenco corretto di fonti sul tema, che con successivi input vien focalizzato sul 500-600, o sulla contemporaneità. L'interpretazione del linguaggio naturale e la sua trasformazione in una serie di filtri specifici per un database immenso come quello di un motore di ricerca, è sicuramente un'applicazione utile delle vector mapping machines (impropriamente dette "reti neurali artificiali"). Molto più problematica è la generazione di eventuali riassunti che hanno una probabilità di non corrispondere al contenuto originale superiore al 40% [2]
Ma chi sta ingannando questa applicazione?
Beh, Maurizio, perdonami la franchezza, ma la prima vittima dell'inganno sei tu, che non cogliendo il funzionamento (probabile) del software che utilizzi, attribuisci ad un suo componente (il LLM, in questo caso) più rilevanza di quanto non ne abbia. Proprio mentre la bolla IA inizia lentamente a deflagare e i produttori di chatbot hanno un disperato bisogno di believer/supporter.
Vieni spinto a credere di aver acquisito una conoscenza che non avresti potuto ottenere senza IA, mentre ciò che te lo impedisce davvero è l'accessibilità del database su cui il software ha effettuato le query.
In altri termini, tu credi che l'AI mode di Google che ti permetta di trovare ciò che cerchi, mentre in realtà Google ti impedisce di accedere al suo preziosissimo database direttamente, nascondendoti tutta la conoscenza che vi ha indicizzato se non quella minima parte che sceglie di mostrarti per i propri (non per i tuoi!) scopi. Quali articoli rilevanti ti ha nascosto? Perché? Quali secondari ha incluso? Perché? Quanta parte della risposta è stata determinata dalle ricerché che hai personalmente svolto nei decenni precedenti (tutto accuratamente registrate)? Quanta dalle opinioni che hai espresso pubblicamente?
Non lo saprai mai. Ma non ti interessa, vero? E _perché_ non ti interessa? ;-)
Ma non sei l'unica vittima di questo inganno.
Il tuo uso della "AI generativa" (di cui non conosci precisamente funzionamento, impatto ambientale ed esternalità), ne giustifica l'esistenza anche agli occhi di coloro che ti stanno intorno, dei tuoi studenti etc... che ti stimano e ti sentono fantasticare di "uso consapevole dell'AI" diverso da quello di ingannare qualcuno.
con un motore di ricerca questo non sarebbe possibile. Certo che lo sarebbe. Non confondere la inputbox di Google con quello che si può fare con un motore di ricerca.
Il problema non è la ricerca ma come fornire un'interfaccia di ricerca "facile" da usare senza dover studiare un manuale di 300 pagine. Con un'interfaccia professionale (come un linguaggio di interrogazione, à la SQL) che interrogasse il database di Google, potresti trovare di più, più rapidamente e più precisamente.
Ma tu non noti l'infinità di conoscenza che Google ti nasconde. Noti solo le briciole che ti concede se fai il bravo.
E attribuisci la qualità alla tecnologia del giorno su cui Google (o chi altri abbia prodotto il chatbot di ricerca che hai utilizza) ha investito (e rischia di perdere) centinaia di miliardi.
Non saprei proprio come scriverlo in un manifesto, per quanto capisco è il problema della prima parte di dum Romase consulitur: non c'è dubbio che sia difficile scriverlo in un manifesto; ma se non si si scrive, o non si fanno azioni analoghe, continua l'uso (generalmente) inconsapevole di tecnologie ingannevoli (ma come ho detto ci sono anche possibili usi non ingannevoli ed efficaci; ma quasi sconosciuti) e quindi Sagunto viene espugnata No.
Tutti gli usi efficaci di questa tecnologia hanno a che fare con l'inganno di esseri umani. Non tutti sono deprecabili.
Può succedere che la persona ingannata sia consenziente rispetto all'inganno (io ad esempio, lo sono quando leggo Le Guin o Jordan). Ciò non ne cambia la natura o la funzione cibernetica.
ma in un contesto universitario, potresti organizzare un corso sull'uso consapevole di questi strumenti, spiegando agli studenti come creare profili social fittizi, con foto fittizie, personalità fittizie e idee fittizie, e come farli interagire con persone ignare sulla piattaforma di interesse. Gli studenti, durante il corso dovrebbero provare a diffondere una credenza falsa (ma plausibile), usando anche tutti i dati raccolti dalle interazioni con gli altri utenti. Al termine del corso poi dovrebbero contattare gli utenti ignari, intervistarli e rivelargli l'inganno. Sono CERTO che sarebbe estremamente istruttivo. ;-) [...] nel merito, sono leggermente perplesso di proporre agli studenti di farsi ingannatori di altri benché a motivo di studio. I tuoi studenti vengono costantemente ingannati.
E sono spesso nude marionette nelle mani di chi li inganna.
Dunque imparare a mentire ed ingannare (sopratutto agenti cibernetici molto più potenti di ciascuno di loro) è questione di sopravvivenza.
L'alternativa è adattarsi, rassegnarsi più o meno consciamente ad essere privati della propria autonomia cognitiva, accettare che il termine "libertà" venga ridotto alla assenza di vincoli fisici e prepararsi ad essere sempre più trattati non come sudditi, ma come bestiame.
Non dubito che esista chi trova l'idea allettante.
In fondo, i maiali mangiano tutti i giorni.
ricordo che qualcosa di simile fu già fatto in passato e pubblicato in PNAS Del Vicario, Michela, Alessandro Bessi, Fabiana Zollo, Fabio Petroni, Antonio Scala, Guido Caldarelli, H. Eugene Stanley, e Walter Quattrociocchi. «The spreading of misinformation online». Proceedings of the National Academy of Sciences 113, fasc. 3 (2016): 554–59. https://doi.org/10.1073/pnas.1517441113. ma soprattutto più che sulla comunicazione social preferirei focalizzare sull'uso dei sistemi di IA Non devo essere stato molto chiaro.
Il social network è "solo" la piattaforma dell'esperimento.
La finalità didattica del corso sarebbe anzitutto comprendere (non solo capire) qual'è l'uso per cui questi "sistemi di IA" sono ottimizzati, sperimentandolo consapevolmente. La finalità educativa viene invece dal confronto con gli utenti vittime dell'inganno.
con pars destruens che mostra in modo chiaramente percepibile i difetti; pars construens che mostra quali usi sono efficaci Appunto, questi strumenti sono ottimizzati per ingannare essere umani.
Mostra ai tuoi studenti come utilizzarli per questo scopo e gli avrai veramente preparati per il futuro che stanno costruendo per loro.
Giacomo
[1] per chi non conoscesse il linguaggio OCaml (famiglia ML, storia trentennale etc...) un bel testo che lo usa come strumento educativo è "Lambda Coding in Draft" di Massimo Ghisalberti https://gitlab.com/minimalprocedure/lambda_coding/-/raw/master/lambda_coding...
[2]https://www.sciencedirect.com/science/article/pii/S0957417424013228
------------------------------------------------------------------------ tout est et n'est rien motto dei conti di challant ------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Ciao Maurizio, On Tue, 25 Nov 2025 09:52:46 +0100 maurizio lana wrote:
se è vero che con un motore di ricerca questo sarebbe possibile, allora vorrei vedere la procedura
Procurami "accesso diretto" al database di un motore di ricerca (Google, Bing, quello che preferisci) e te lo mostro tranquillamente. Qualunque sia il modo di indicizzare i contenuti, un modo c'è. E se sei riuscito a trovarli non è merito del LLM, ma del database sottostante a cui il LLM in questione ti fornisce un accesso mediato. E' possibile attribuire ad un software programmato statisticamente riferimenti precisi alla realtà (di cui i documenti referenziati fanno parte, indipendentemente dalla loro attinenza alla tua ricerca) solo ignorandone il funzionamento. Il software che hai usato (quale?) può includere un LLM che prepara una output più "artificialmente umanoide" di una lista di link, ma è estremamente improbabile che i riferimenti, se sistematicamente corretti, arrivino dalla sua decompressione. Poi per carità, non è tecnicamente impossibile che una zona relativamente piccola di un archivio compresso con perdita mantenga un'alta definizione (ovvero un frammento verbatim dei contenuti utilizzati come sorgente). Esattamente come con un JPEG, dipende sia dal livello di compressione che dalle caratteristiche del testo compresso. Che tu sia stato fortunato? E' improbabile, ma non impossibile. Però non generalizzerei un caso fortunato.
mai usato l'AI mode di Google e anzi l'ho disattivato a monte per non veder mai comparire le overview (che non sono solo le overview, è l'intera ricerca che viene influenzata e filtrata)
Ottimo! Meglio ancora sarebbe evitare proprio Google come la peste. Che anche quando non usi l'AI Mode, l'intera ricerca viene influenzata e filtrata da software programmati statisticamente che usano il tuo log personale come input, accanto all'input che se consapevole di fornire, per "personalizzare" i risultati di ricerca. LLM che fornisce l'interfaccia conversazionale consuma molta più energia e può introdurre bias/errori imprevisti, ma non è assolutamente l'unica "intelligenza artificiale" con cui interagisci durante una ricerca su Google. Alcune "AI" ti osservano (Analytics etc...), altre ti manipolano (cambiando l'ordine dei risultati, scegliendo gli ads etc...). Giacomo PS: se vuoi condividere (privatamente, in modo da evitare spot pubblicitari) quale chatbot hai utilizzato per questa specifica richiesta, mi permetterebbe di comprendere meglio il tipo di utilità che vi hai percepito.
participants (9)
-
Alfredo Bregni -
Andrea Bolioli -
Andrea Trentini -
antonio -
Flavia Marzano -
Giacomo Tesio -
Guido Vetere -
maurizio lana -
Stefano Borroni Barale