La responsabilità sociale
Mi collego a quanto scritto da Daniela Tafani per aggiungere il mio punto di vista: Le generazioni che crescono con l’AI come baseline cognitiva sono esposte a una vulnerabilità nuova. Non solo rischiano di essere giudicate da sistemi opachi, ma di esserlo in assenza di strumenti autonomi per riconoscerne limiti, errori, omissioni e presupposti. La futura mutazione dei diritti sociali avrà tra le sue cause principali questo spostamento dell’autorità cognitiva. Il nodo non è soltanto l’indebolimento della capacità cognitiva dovuto all’uso dell’AI, questione già ampiamente discussa, ma il trasferimento dell’autorità cognitiva: chi sembra avere ragione, che cosa appare vero, quale framing si impone o dove si arresta il dubbio. L’AI fornisce vantaggi tattici evidenti nel breve periodo, come per esempio, a prescindere dall’etica sottesa, può aiutare a superare un esame, a redigere un progetto, a produrre testi formalmente convincenti o a simulare una competenza che ancora non si possiede. Ma, in assenza di una governance distribuita e di robuste difese epistemiche, tende a dividere le persone tra chi è dentro la matrice cognitiva dell’AI e chi la usa mantenendone la distanza. I secondi sono pochi. I primi sono molti, e provengono più spesso da contesti che non hanno fornito loro strumenti sufficienti di protezione epistemica. In questo senso la nuova asimmetria dei diritti sociali non sarà soltanto economica o tecnologica o di accesso, ma potrà essere a che e gravemente cognitiva e istituzionale. Junio
Il giorno 11 mag 2026, alle ore 18:56, nexa-request@server-nexa.polito.it ha scritto:
Send nexa mailing list submissions to nexa@server-nexa.polito.it
To subscribe or unsubscribe via email, send a message with subject or body 'help' to nexa-request@server-nexa.polito.it
You can reach the person managing the list at nexa-owner@server-nexa.polito.it
When replying, please edit your Subject line so it is more specific than "Re: Contents of nexa digest..."
Today's Topics:
1. Re: Una visione realistica dell’Intelligenza Artificiale - Lettera aperta alla società (antonio) 2. Re: Una visione realistica dell’Intelligenza Artificiale - Lettera aperta alla società (Enrico Nardelli)
----------------------------------------------------------------------
Message: 1 Date: Mon, 11 May 2026 17:54:32 +0200 From: antonio <antonio@piumarossa.it> Subject: [nexa] Re: Una visione realistica dell’Intelligenza Artificiale - Lettera aperta alla società To: nexa@server-nexa.polito.it Message-ID: <20260511175432.6515ec420feb62f282897af3@piumarossa.it> Content-Type: text/plain; charset=ISO-8859-1
Eh, no! Lo confondi ed è peggio. L'hai "addestrato" cieco? E cieco conviene che tiri i rigori.
Hai ragione, infatti quella frase ero incerto se e come inserirla. Si può intenderla come: "Ho visto la luce!" (cit. John Belushi in "Blues Brothers") dopo aver calcolato al buio dentro la "black box". Ma se rimaniamo dentro la metafora dell'uscire dal buio come assunzione di consapevolezza e cognizione di sé e della realtà, allora è meglio che il calciatore/AI resti bendato.
Forse per un ragazzino un discorso troppo filosofico ;)
A.
------------------------------
Message: 2 Date: Mon, 11 May 2026 18:56:16 +0200 From: Enrico Nardelli <nardelli@mat.uniroma2.it> Subject: [nexa] Re: Una visione realistica dell’Intelligenza Artificiale - Lettera aperta alla società To: "nexa@server-nexa.polito.it" <nexa@server-nexa.polito.it> Message-ID: <2b382e08-923c-4019-9f66-bc0de37da1d3@mat.uniroma2.it> Content-Type: multipart/alternative; boundary="------------WpHNbW4yHA2lHqCXHEVShcjD"
Cara Daniela
grazie a te per ricordare sempre infaticabilmente l'importanza di riflettere su cosa fanno questi strumenti alla società e di cercare di riprenderne il controllo.
Grazie anche per i riferimenti (*) e (**) che non conoscevo.
Molto interessante il riferimento alla visione dell'IAgen come "culto"... 🙂
Segnalo questi due ulteriori articoli interessanti in merito ai danni dell'uso di strumenti di IAgen nei processi di apprendimento:
- questo di Anthropic, particolarmente rilevante perché è sostanzialmente l'oste che dice che il suo vino può far male How AI assistance impacts the formation of coding skills https://www.anthropic.com/research/AI-assistance-coding-skills
- questo di ricercatori indipendenti su matematica e lettura AI Assistance Reduces Persistence and Hurts Independent Performance https://ai-project-website.github.io/AI-assistance-reduces-persistence/
Ciao, Enrico
Il 10/05/2026 11:49, Daniela Tafani ha scritto:
Caro Enrico,
volevo ringraziarti di aver rivolto ai tuoi colleghi, con la lettera aperta, un invito a non coltivare quello che chiamate un "fraintendimento".
Come accade sovente in ambito religioso, c'è un doppio aspetto:
- il fraintendimento di cui vi occupate, generato da una debolezza antropologica, dalla tendenza della natura umana a una forma animistica di pensiero magico; - l'inganno dei sacerdoti di questa specifica religione statutaria, variamente interessati al potere o al profitto che derivano da un simile culto.
Da un punto di vista filosofico, gli argomenti di Searle su intelligenza e proprietà emergenti non sono mai stati confutati.
La religione della tecnologia resta: già David Noble osservava che il concetto stesso di intelligenza artificiale è erede del mito giudaico-cristiano della creazione come di una procreazione divina maschile, senza donne e senza sesso.
Trattandosi di un culto, qualcuno ha legittimamente richiesto di essere esentato dall'uso dei chatbot in nome della libertà religiosa (Catherine Sawers: "I have a religious exemption from using all generative 'A.I.' I am not a member of the Silicon Valley sect").
Ne approfitto per aggiungere all'elenco tuo e di Giacomo (se le aveste già citate, scusatemi) un altro paio di pubblicazioni sugli effetti dequalificanti dell'uso dei chatbot:
- sulla "resa cognitiva", in virtù della quale si finisce per adottare l’output di un chatbot senza verifica e anche nei casi in cui contrasti con le proprie intuizioni o i propri ragionamenti*; - sull'atrofia cognitiva negli adulti e sul mancato apprendimento nei bambini: negli adulti, con l’uso dei chatbot si indeboliscono, senza rendersene conto, le capacità che si possedevano e che possono tuttavia essere recuperate; nei giovani, l’uso di tali sistemi preclude del tutto l’apprendimento e abitua a a omologarsi, a non pensare, a recepire pensieri già formulati da altri**;
Va da sé che non si tratti di spiacevoli effetti collaterali, ma, come sempre, di una delle funzioni di questi sistemi, ritenute economicamente e politicamente utili dal complesso militare-industriale che controlla, in questo momento, le traiettorie di sviluppo della tecnologia: dequalificazione e dipendenza da piattaforme e software proprietari, per quanto scadenti, sono obiettivi intrecciati, funzionali alla riduzione dei cittadini a sudditi in stato di minorità.
L'obiettivo delle grandissime aziende è che, anche nella vita privata, attività e relazioni umane siano non solo mediate dai loro prodotti, ma siano intrattenute direttamente con quelli, anziché con altri esseri umani: anche in questo ambito si mira a produrre dipendenza, perché questa è funzionale alla sorveglianza, alla manipolazione e al controllo degli utenti. Si diventa dipendenti dall'amico immaginario perché nella realtà c'è un software che estrude output che danno rinforzo senza contenimento, all'infinito. Psicologicamente, è una ricetta per il disastro. Non a caso, qualcuno ha osservato che l'attuale modello di business dell'IA generativa è quello della "psicosi come servizio". Non stupisce, quindi, il caso italiano recentissimo - dopo gli innumerevoli casi statunitensi - di una dipendenza da chatbot presa in carico dal sistema sanitario.
Uno pseudo studio edtech sugli effetti positivi dei chatbot è appena stato ritrattato da Nature***.
Un caro saluto, Daniela
* Timothy Cook, Adults Lose Skills to AI. Children Never Build Them, “Psychilogy Today”, March 22, 2026,https://www.psychologytoday.com/us/blog/the-algorithmic-mind/202603/adults-l.... ** Steven D. Shaw, Gideon Nave, Thinking ‐ Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender, “The Wharton School Research Paper”, January 11, 2026,https://doi.org/10.31234/osf.io/yk25n_v1. *** Retraction Note: The effect of ChatGPT on students’ learning performance, learning perception, and higher-order thinking: insights from a meta-analysis,https://www.nature.com/articles/s41599-026-07310-z.
________________________________________ Da: Enrico Nardelli via nexa<nexa@server-nexa.polito.it> Inviato: sabato 9 maggio 2026 19:20 A:nexa@server-nexa.polito.it Oggetto: [nexa] Re: Una visione realistica dell’Intelligenza Artificiale - Lettera aperta alla società
Grazie Giacomo
per il riferimento a questo studio di Antrhopic, che non conoscevo quando avevo scritto il mio pezzo di un paio di mesi fa us IAgen e sviluppo softwarehttps://www.startmag.it/innovazione/iagen-lavoro-sviluppo-software/
È molto interessante, perché condotto seguendo gli approcci usati nella ricerca in didattica dell'informatica (o computer science education che dir si voglia):
We found that using AI assistance led to a statistically significant decrease in mastery. On a quiz that covered concepts they’d used just a few minutes before, participants in the AI group scored 17% lower than those who coded by hand, or the equivalent of nearly two letter grades. Using AI sped up the task slightly, but this didn’t reach the threshold of statistical significance.
Questo risultato ribatte quello in molti altri settori sta emergendo rispetto all'uso dell'IA nel settore educativo, che è esemplificato da questo studio massiccio (di cui forse si è già parlato qui in mailing list) sul cosiddetto "Debito Cognitivo".
Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task https://arxiv.org/pdf/2506.08872v2
As the educational impact of LLM use only begins to settle with the general population, in this study we demonstrate the pressing matter of a likely decrease in learning skills based on the results of our study. The use of LLM had a measurable impact on participants, and while the benefits were initially apparent, as we demonstrated over the course of 4 months, the LLM group's participants performed worse than their counterparts in the Brain-only group at all levels: neural, linguistic, scoring
Ciao, Enrico
NB: il grassetto delle citazioni è mio
Il 08/05/2026 19:57, Giacomo Tesio via nexa ha scritto:
Suvvia Enrico, non te la prendere: non è nulla di personale.
On Fri, 8 May 2026 17:43:17 +0200 Enrico Nardelli wrote:
Guido, io ho scritto: [...]
tu mi replichi [...]
NO! Se io avessi scritto [...]
Ma siccome ho scritto una cosa diversa, [...]
Sono certo che Guido non abbia usato un agente automatico per ottenere un riassunto della tua mail perché sa che sarebbe un'enorme mancanza di rispetto per il tempo che hai dedicato a scrivergli.
Semplicemente, leggere fischi per fiaschi è un effetto collaterale comunissimo dell'uso intensivo di riassunti prodotti da software programmati statisticamente.
Come ogni altra facoltà intellettiva, l'attenzione richiede costante allenamento. Nemmeno Anthropic ha il coraggio di negarlo [1][2]: https://www.anthropic.com/research/AI-assistance-coding-skills
""" On average, participants in the AI group finished about two minutes faster, although the difference was not statistically significant. There was, however, a significant difference in test scores: the AI group averaged 50% on the quiz, compared to 67% in the hand-coding group—or the equivalent of nearly two letter grades (Cohen's d=0.738, p=0.01). The largest gap in scores between the two groups was on debugging questions, suggesting that the ability to understand when code is incorrect and why it fails may be a particular area of concern if AI impedes coding development. """
Un effetto collaterale che tende a vanificare persino l'utilità dei "riassunti automatici" per chi, come suggerivo in altra mail, legge comunque i documenti da riassumere.
Giacomo
[1] pur argomentato che dipende da come le usi, per cui se rincretinisci, è solo colpa tua... ;-)
[2] Per altro, ben 2 minuti in meno nel completare lo sviluppo con un AI (a pagamento) per diverse ore in più a debuggarlo: che affarone! :-D
--
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html [cid:part1.B02fsOl4.0jOB00vj@mat.uniroma2.it] ====================================================== Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page:https://www.mat.uniroma2.it/~nardelli blog:https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail:nardelli@mat.uniroma2.it<mailto:nardelli@mat.uniroma2.it> online meeting:https://blue.meet.garr.it/b/enr-y7f-t0q-ont ======================================================
-- --
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ======================================================
--
partecipanti (1)
-
Junio Caselli