Caro Enrico, volevo ringraziarti di aver rivolto ai tuoi colleghi, con la lettera aperta, un invito a non coltivare quello che chiamate un "fraintendimento". Come accade sovente in ambito religioso, c'è un doppio aspetto: - il fraintendimento di cui vi occupate, generato da una debolezza antropologica, dalla tendenza della natura umana a una forma animistica di pensiero magico; - l'inganno dei sacerdoti di questa specifica religione statutaria, variamente interessati al potere o al profitto che derivano da un simile culto. Da un punto di vista filosofico, gli argomenti di Searle su intelligenza e proprietà emergenti non sono mai stati confutati. La religione della tecnologia resta: già David Noble osservava che il concetto stesso di intelligenza artificiale è erede del mito giudaico-cristiano della creazione come di una procreazione divina maschile, senza donne e senza sesso. Trattandosi di un culto, qualcuno ha legittimamente richiesto di essere esentato dall'uso dei chatbot in nome della libertà religiosa (Catherine Sawers: "I have a religious exemption from using all generative 'A.I.' I am not a member of the Silicon Valley sect"). Ne approfitto per aggiungere all'elenco tuo e di Giacomo (se le aveste già citate, scusatemi) un altro paio di pubblicazioni sugli effetti dequalificanti dell'uso dei chatbot: - sulla "resa cognitiva", in virtù della quale si finisce per adottare l’output di un chatbot senza verifica e anche nei casi in cui contrasti con le proprie intuizioni o i propri ragionamenti*; - sull'atrofia cognitiva negli adulti e sul mancato apprendimento nei bambini: negli adulti, con l’uso dei chatbot si indeboliscono, senza rendersene conto, le capacità che si possedevano e che possono tuttavia essere recuperate; nei giovani, l’uso di tali sistemi preclude del tutto l’apprendimento e abitua a a omologarsi, a non pensare, a recepire pensieri già formulati da altri**; Va da sé che non si tratti di spiacevoli effetti collaterali, ma, come sempre, di una delle funzioni di questi sistemi, ritenute economicamente e politicamente utili dal complesso militare-industriale che controlla, in questo momento, le traiettorie di sviluppo della tecnologia: dequalificazione e dipendenza da piattaforme e software proprietari, per quanto scadenti, sono obiettivi intrecciati, funzionali alla riduzione dei cittadini a sudditi in stato di minorità. L'obiettivo delle grandissime aziende è che, anche nella vita privata, attività e relazioni umane siano non solo mediate dai loro prodotti, ma siano intrattenute direttamente con quelli, anziché con altri esseri umani: anche in questo ambito si mira a produrre dipendenza, perché questa è funzionale alla sorveglianza, alla manipolazione e al controllo degli utenti. Si diventa dipendenti dall'amico immaginario perché nella realtà c'è un software che estrude output che danno rinforzo senza contenimento, all'infinito. Psicologicamente, è una ricetta per il disastro. Non a caso, qualcuno ha osservato che l'attuale modello di business dell'IA generativa è quello della "psicosi come servizio". Non stupisce, quindi, il caso italiano recentissimo - dopo gli innumerevoli casi statunitensi - di una dipendenza da chatbot presa in carico dal sistema sanitario. Uno pseudo studio edtech sugli effetti positivi dei chatbot è appena stato ritrattato da Nature***. Un caro saluto, Daniela * Timothy Cook, Adults Lose Skills to AI. Children Never Build Them, “Psychilogy Today”, March 22, 2026, https://www.psychologytoday.com/us/blog/the-algorithmic-mind/202603/adults-l.... ** Steven D. Shaw, Gideon Nave, Thinking ‐ Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender, “The Wharton School Research Paper”, January 11, 2026, https://doi.org/10.31234/osf.io/yk25n_v1. *** Retraction Note: The effect of ChatGPT on students’ learning performance, learning perception, and higher-order thinking: insights from a meta-analysis, https://www.nature.com/articles/s41599-026-07310-z. ________________________________________ Da: Enrico Nardelli via nexa <nexa@server-nexa.polito.it> Inviato: sabato 9 maggio 2026 19:20 A: nexa@server-nexa.polito.it Oggetto: [nexa] Re: Una visione realistica dell’Intelligenza Artificiale - Lettera aperta alla società Grazie Giacomo per il riferimento a questo studio di Antrhopic, che non conoscevo quando avevo scritto il mio pezzo di un paio di mesi fa us IAgen e sviluppo software https://www.startmag.it/innovazione/iagen-lavoro-sviluppo-software/ È molto interessante, perché condotto seguendo gli approcci usati nella ricerca in didattica dell'informatica (o computer science education che dir si voglia): We found that using AI assistance led to a statistically significant decrease in mastery. On a quiz that covered concepts they’d used just a few minutes before, participants in the AI group scored 17% lower than those who coded by hand, or the equivalent of nearly two letter grades. Using AI sped up the task slightly, but this didn’t reach the threshold of statistical significance. Questo risultato ribatte quello in molti altri settori sta emergendo rispetto all'uso dell'IA nel settore educativo, che è esemplificato da questo studio massiccio (di cui forse si è già parlato qui in mailing list) sul cosiddetto "Debito Cognitivo". Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task https://arxiv.org/pdf/2506.08872v2 As the educational impact of LLM use only begins to settle with the general population, in this study we demonstrate the pressing matter of a likely decrease in learning skills based on the results of our study. The use of LLM had a measurable impact on participants, and while the benefits were initially apparent, as we demonstrated over the course of 4 months, the LLM group's participants performed worse than their counterparts in the Brain-only group at all levels: neural, linguistic, scoring Ciao, Enrico NB: il grassetto delle citazioni è mio Il 08/05/2026 19:57, Giacomo Tesio via nexa ha scritto: Suvvia Enrico, non te la prendere: non è nulla di personale. On Fri, 8 May 2026 17:43:17 +0200 Enrico Nardelli wrote: Guido, io ho scritto: [...] tu mi replichi [...] NO! Se io avessi scritto [...] Ma siccome ho scritto una cosa diversa, [...] Sono certo che Guido non abbia usato un agente automatico per ottenere un riassunto della tua mail perché sa che sarebbe un'enorme mancanza di rispetto per il tempo che hai dedicato a scrivergli. Semplicemente, leggere fischi per fiaschi è un effetto collaterale comunissimo dell'uso intensivo di riassunti prodotti da software programmati statisticamente. Come ogni altra facoltà intellettiva, l'attenzione richiede costante allenamento. Nemmeno Anthropic ha il coraggio di negarlo [1][2]: https://www.anthropic.com/research/AI-assistance-coding-skills """ On average, participants in the AI group finished about two minutes faster, although the difference was not statistically significant. There was, however, a significant difference in test scores: the AI group averaged 50% on the quiz, compared to 67% in the hand-coding group—or the equivalent of nearly two letter grades (Cohen's d=0.738, p=0.01). The largest gap in scores between the two groups was on debugging questions, suggesting that the ability to understand when code is incorrect and why it fails may be a particular area of concern if AI impedes coding development. """ Un effetto collaterale che tende a vanificare persino l'utilità dei "riassunti automatici" per chi, come suggerivo in altra mail, legge comunque i documenti da riassumere. Giacomo [1] pur argomentato che dipende da come le usi, per cui se rincretinisci, è solo colpa tua... ;-) [2] Per altro, ben 2 minuti in meno nel completare lo sviluppo con un AI (a pagamento) per diverse ore in più a debuggarlo: che affarone! :-D -- -- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html [cid:part1.B02fsOl4.0jOB00vj@mat.uniroma2.it] ====================================================== Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it<mailto:nardelli@mat.uniroma2.it> online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --