Ciao a tutti, condivido un articolo di Data room: https://www.corriere.it/dataroom-milena-gabanelli/non-usare-chatgpt-prima-di... Su questo possiamo concordare quasi tutti? Un paio di frasi non sono corrette, ma il resto mi sembra ragionevole e condivisibile. Andrea On Tue, Nov 18, 2025 at 7:51 PM Alfredo Bregni <abregni@iperv.it> wrote:
Io sono molto più laico...: - Intanto sono "confezionatori (statistici) di testi (o altro)", non chissà cosa, non intelligenza; il misfatto principale è averli chiamati "IA" e averci scritto sopra di tutto, così da riempire lo spazio mediatico di "fuffa-e-desiderio" (che mi pare andazzo diffuso, peraltro, e comune mezzo di "pompaggio" di qualsivoglia gadget informatico, serio o demente che sia); - Poi, ognuno li usa (o li fa usare) come vuole e/o più gli conviene; tolto il marketing aggressivo-demenziale, con tutti i risvolti negativi che ha (soprattutto sulla psiche della audience, ...e io metterei il dito lì, e farei qualche legge sul millantato credito in informatica che scuoi sulla pubblica piazza i confezionatori di nomi), di male non so cosa resti, se non il "problema creduloni" (che peraltro ha fatto proseliti nelle religioni, in politica, ...e per la Terra piatta, cosicché il danno degli LLM mi sembra ridicolo al confronto); - Dopodiché, finiti la fuffa e il polverone, c'è chi si informa su come funziona questo o quello (e sono un po' meglio dei motori di ricerca, peraltro già "colonizzati"), con almeno l'indicazione che possono dire fregnacce.
Voglio dire: - Metterei le cose in prospettiva, fra: . Quello che è comune al "marketing" informatico; . Quello che è comune alla normale predazione / manipolazione fatta anche con le zucchine. - Non vedrei del male nello strumento in sé, perché non è una pistola o una bomba, ma ...un "confezionatore di testi", perfetto per predisporre discorsi politici o pubblicitari, riassumere dati di fatto (veri o no è altro tema) in modo strutturato (mi hanno insegnato a fare così in consulenza, e mi diverte vedere che quasi ogni discorso struttuato sul web viene da un'IA: deve essere più facile per tenere le cose in ordine, a meno che non scrivano anche romanzi o favole per bambini, cosa in cui non mi sono finora imbattuto), ...e non saprei cos'altro.
In sintesi, sono il risultato di un grande sforzo in una direzione fasulla, venduti per quel che non sono, utili a fare in fretta quando uno ha fretta, insomma un portato dei tempi, con i problemi che sono già lì ben prima che arrivino gli LLM a farcene parlare (probabilmente anche questo in direzioni fasulle). Ecco, sì: sono ottime armi di distrAzione di massa. Qui convengo.
----- Original Message ----- *From:* Giacomo Tesio <giacomo@tesio.it> *To:* nexa@server-nexa.polito.it *Sent:* Tuesday, November 18, 2025 6:58 PM *Subject:* Re: [nexa] Roma e Sagunto (era Walter Quattrociocchi, post su facebook)
Ciao Maurizio,
On Tue, 18 Nov 2025 12:02:20 +0100 maurizio lana wrote:
si potrebbe concepire, pensare, scrivere qui, un [Manifesto per l'uso consapevole dell'IA]?
Anzitutto sotto il cappello della "IA" vengono fatte rientrare tecnologie diversissime, da Prolog a ChatGPT. Con la notevole differenza che il primo su può usare consapevolmente dopo 3-4 settimane di studio, il secondo dopo 3-4 decenni di studio.
Di quale delle centinaia di tecnologie che vengono finanziate inseguendo la fantasia (allucinazione?) di un'intelligenza artificiale, vorremmo proporre un uso consapevole?
Suppongo (ma correggimi se sbaglio) che tu faccia riferimento agli LLM commerciali, i vari GitHub CopyALot, ChatGPT, Gemini etc...
Si tratta di tecnologie che una persona consapevole del loro funzionamento può usare SOLO per ingannare uno o più esseri umani (incluso, eventualmente, sé stesso).
Non saprei proprio come scriverlo in un manifesto, ma in un contesto universitario, potresti organizzare un corso sull'uso consapevole di questi strumenti, spiegando agli studenti come creare profili social fittizi, con foto fittizie, personalità fittizie e idee fittizie, e come farli interagire con persone ignare sulla piattaforma di interesse.
Gli studenti, durante il corso dovrebbero provare a diffondere una credenza falsa (ma plausibile), usando anche tutti i dati raccolti dalle interazioni con gli altri utenti. Al termine del corso poi dovrebbero contattare gli utenti ignari, intervistarli e rivelargli l'inganno.
Sono CERTO che sarebbe estremamente istruttivo. ;-)
Gli studenti imparerebbero a cosa servono queste tecnologie, come vengono utilizzate per manipolarli e come utilizzarle nel modo più proficuo possibile, secondo gli scopi per cui sono progettati.
Che ne pensi?
Se serve una mano per gli aspetti tecnici, potrei persino vincere la repulsione che provo per le aziende che producono questi software e aiutarti a mettere su un minimo di infrastruttura per gli studenti.
Giacomo