Ciao Maurizio, ci sarebbe moltissimo da dire sulla consapevolezza del funzionamento dei LLM commerciali e come questa potrebbe e dovrebbe ispirarne il divieto. Di certo, un ipotetico "modello LLM" programmato statisticamente ed in modo trasparente e perfettamente riproducibile a partire da testi sorgente disponibili liberamente e distribuito sotto una licenza compatibile con quella dei sorgenti da cui deriva algoritmicamente, potrebbe essere usato lecitamente ed eticamente per ottenere output utilizzabili sotto la stessa licenza. Tali "modelli" sono archivi compressi (con perdita) dei testi sorgente espressi come matrici numeriche eseguibili da macchine virtuali pomposamente (ed erroneamente) chiamati "motori inferenziali". Eseguendoli, ne estrai iterativamente una parte statisticamente correlata con l'input iniziale (prompt) e l'output prodotto ad ogni iterazione, ripercorrendo in un certo senso l'archivio di testi lungo le relazioni statistiche via via più frequenti. Anche così, l'utilità del loro output è ingannevole: non corrisponde completamente ad alcuno dei testi archiviati, ma troverai stralci di diversi di essi. Tuttavia ipotizzo che vi possa essere un modo di utilizzarli per diletto, laddove l'utente, che è perfettamente consapevole della loro natura effimera e priva di significato intrinseco li voglia consumare come si consuma la pornografia. Per un programmatore che ne comprende il funzionamento, potrebbe essere anche divertente nel contesto di un videogioco offline, per rendere più realistici i dialoghi con i personaggi e, magari, più varia e imprevedibile l'esperienza di gioco. L'importante, con l'output di tali LLM "trasparenti", sarebbe la piena e costante consapevolezza della finzione, dell'autoinganno e della assenza di un qualsiasi reale significato nella sequenza di lettere interpretata come testo. On Thu, 20 Nov 2025 09:58:11 +0100 maurizio lana wrote:
Andrea Bolioli ha scritto "cerchiamo di limitare i rischi e le perdite di tempo. (io uso i sistemi GenAI, non sono luddista)"
Io sono un hacker, non un luddista. E NON uso alcun sistema di "GenAI". Lo faccio a ragion veduta, per innumerevoli ragioni etiche e pratiche. Ad esempio, non trovo corretto nei confronti del mio datore di lavoro che mi paga per scrivere software finanziario che muove centinaia di milioni di euro ogni anno, rischiare la reputazione di altissima qualità della nostra azienda. Non lo trovo corretto nei confronti dei miei colleghi che si potrebbero trovare a debuggare codice "generato male". E non lo trovo neanche furbo, perché poi spesso i bug più devastanti, quelli che nessuno riesce a riprodurre sistematicamente ancor prima di correggere, tocca sistemarli a me. L'altro giorno per ragioni lavorative ho dovuto assistere all'AngularDay, un workshop organizzato a Verona su un framework GUI sviluppato da Google. Angular è l'apice insuperato della sovra-ingegnerizzazione in javascript: moltissime aziende lo adottano come antidoto (oggettivamente efficace) al caos dell'ecosistema. Come puoi immaginare questi eventi sono spot pubblicitari specializzati per far presa sui programmatori, inframmezzati con qualche intervento effettivamente interessante (ne ho visti tre o quattro, di Laura Pedenaud, di Massimo Artizzu, di Davide Senatore e di Alex Okrushko). Come puoi immaginare, buona parte dell'evento è però stato una sorta di trattamento ludovico atto a convincere gli sviluppatori presenti ad adottare Gemini o altri coding assistant per fare "vibecoding". Tuttavia è stato divertente notare come persino un "Google Developer Expert" che presenta un talk dal titolo "Vibing the Future with Angular: Leveraging Gemini & Web-LLM for Intelligent Experiences" debba ammettere che (cito dalle slide): """ The cost of AI beyond code generation: - Debugging: 5x longer - Security audits: Manual Review required - Technical dept: compounds EXPONENTIALLY - Team velocity: Slows over time """ Le stime sono molto ottimistiche (io ho osservato per più di un 5x nei tempi di risoluzioni dei bug da parte di colleghi che hanno osato mettere in produzione codice prodotto in questo modo, ma Ahsan Ayaz ha anche aggiunto (a voce) che naturalmente, questi sono problemi davvero rilevanti solo se si dovrà mantenere il software: se stai solo facendo un prototipo o un mockup CHE NESSUNO DOVRA' VERAMENTE USARE, puoi non preoccupartene. Ma come vedi, stai di nuovo usando la "AI" per ingannare qualcuno: chi vede il prototipo, te stesso, chi vede il talk etc... Un esempio interessante di questo uso consapevole delle "AI generative" si è verificato recentemente nella comunità che mantiene il compilatore OCaml [1]: https://github.com/ocaml/ocaml/pull/14369 Uno sviluppatore senza alcuna competenza specifica nella scrittura di compilatori ha proposto una patch generata con Cloud da oltre 13 mila righe, specificando di non aver scritto personalmente neanche una riga e di aver solo "guidato" il software. La comunità ovviamente non l'ha inclusa nella codebase, per almeno due ragioni (ma ti invito a leggere la issue, un dialogo talmente alienato da apparire a tratti surreale): - il codice proposto somiglia molto a quello di un altro compilatore (OxCaml) e Cloud ne ha perfino attribuito la paternità ad uno degli sviluppatori (che però NON ha partecipato allo "sviluppo" della patch) - nessuno vuole l'onere di mantenere quel codice che nessuna mente umana davvero conosce e comprende Chi è vittima dell'inganno, in questo caso? Beh anzitutto gli sviluppatori del compilatore OCaml hanno perso un sacco di tempo, ma ne perderebbero molto di più se accettassero la modifica, come spiegava Ahsan Ayaz all'AngularDay. Poi lo è Mark Shinwell, sviluppatore di oxcaml, che si vede attribuito codice che non ha mai scritto (una cosa che credo violi quelli che in Italia vengono definiti diritti morali dell'autore e personalmente vivrei come una violenza offensiva). Lo anche sono gli sviluppatori che leggeranno l'articolo di Joel Reymont che ha accompagnato la creazione della patch (un vero e proprio spot per Claude), senza approfondire la questione. Infine lo è Joel Reymont stesso, che crede di aver fornito un contributo utile alla comunità e non sembra non comprendere assolutamente il rifiuto (e il danno reputazionale che si sta auto-infliggendo).
esempio: leggendo la frase di Vannevar Bush "publication has been extended far beyond our present ability to make real use of the record" mi sembra di ricordare che in letteratura già al tempo dell’invenzione della stampa si trovano tracce dell'idea che sia difficile acquisire un solida conoscenza delle ora adesso che ci sono così tanti libri e che non siamo in grado di leggerli tutti.
In sostanza, la giustificazione dell'esistenza dei motori di ricerca. :-D
questa richiesta data in input al chatbot genera in output un elenco corretto di fonti sul tema, che con successivi input vien focalizzato sul 500-600, o sulla contemporaneità.
L'interpretazione del linguaggio naturale e la sua trasformazione in una serie di filtri specifici per un database immenso come quello di un motore di ricerca, è sicuramente un'applicazione utile delle vector mapping machines (impropriamente dette "reti neurali artificiali"). Molto più problematica è la generazione di eventuali riassunti che hanno una probabilità di non corrispondere al contenuto originale superiore al 40% [2] Ma chi sta ingannando questa applicazione? Beh, Maurizio, perdonami la franchezza, ma la prima vittima dell'inganno sei tu, che non cogliendo il funzionamento (probabile) del software che utilizzi, attribuisci ad un suo componente (il LLM, in questo caso) più rilevanza di quanto non ne abbia. Proprio mentre la bolla IA inizia lentamente a deflagare e i produttori di chatbot hanno un disperato bisogno di believer/supporter. Vieni spinto a credere di aver acquisito una conoscenza che non avresti potuto ottenere senza IA, mentre ciò che te lo impedisce davvero è l'accessibilità del database su cui il software ha effettuato le query. In altri termini, tu credi che l'AI mode di Google che ti permetta di trovare ciò che cerchi, mentre in realtà Google ti impedisce di accedere al suo preziosissimo database direttamente, nascondendoti tutta la conoscenza che vi ha indicizzato se non quella minima parte che sceglie di mostrarti per i propri (non per i tuoi!) scopi. Quali articoli rilevanti ti ha nascosto? Perché? Quali secondari ha incluso? Perché? Quanta parte della risposta è stata determinata dalle ricerché che hai personalmente svolto nei decenni precedenti (tutto accuratamente registrate)? Quanta dalle opinioni che hai espresso pubblicamente? Non lo saprai mai. Ma non ti interessa, vero? E _perché_ non ti interessa? ;-) Ma non sei l'unica vittima di questo inganno. Il tuo uso della "AI generativa" (di cui non conosci precisamente funzionamento, impatto ambientale ed esternalità), ne giustifica l'esistenza anche agli occhi di coloro che ti stanno intorno, dei tuoi studenti etc... che ti stimano e ti sentono fantasticare di "uso consapevole dell'AI" diverso da quello di ingannare qualcuno.
con un motore di ricerca questo non sarebbe possibile.
Certo che lo sarebbe. Non confondere la inputbox di Google con quello che si può fare con un motore di ricerca. Il problema non è la ricerca ma come fornire un'interfaccia di ricerca "facile" da usare senza dover studiare un manuale di 300 pagine. Con un'interfaccia professionale (come un linguaggio di interrogazione, à la SQL) che interrogasse il database di Google, potresti trovare di più, più rapidamente e più precisamente. Ma tu non noti l'infinità di conoscenza che Google ti nasconde. Noti solo le briciole che ti concede se fai il bravo. E attribuisci la qualità alla tecnologia del giorno su cui Google (o chi altri abbia prodotto il chatbot di ricerca che hai utilizza) ha investito (e rischia di perdere) centinaia di miliardi.
Non saprei proprio come scriverlo in un manifesto, per quanto capisco è il problema della prima parte di dum Romase consulitur: non c'è dubbio che sia difficile scriverlo in un manifesto; ma se non si si scrive, o non si fanno azioni analoghe, continua l'uso (generalmente) inconsapevole di tecnologie ingannevoli (ma come ho detto ci sono anche possibili usi non ingannevoli ed efficaci; ma quasi sconosciuti) e quindi Sagunto viene espugnata
No. Tutti gli usi efficaci di questa tecnologia hanno a che fare con l'inganno di esseri umani. Non tutti sono deprecabili. Può succedere che la persona ingannata sia consenziente rispetto all'inganno (io ad esempio, lo sono quando leggo Le Guin o Jordan). Ciò non ne cambia la natura o la funzione cibernetica.
ma in un contesto universitario, potresti organizzare un corso sull'uso consapevole di questi strumenti, spiegando agli studenti come creare profili social fittizi, con foto fittizie, personalità fittizie e idee fittizie, e come farli interagire con persone ignare sulla piattaforma di interesse. Gli studenti, durante il corso dovrebbero provare a diffondere una credenza falsa (ma plausibile), usando anche tutti i dati raccolti dalle interazioni con gli altri utenti. Al termine del corso poi dovrebbero contattare gli utenti ignari, intervistarli e rivelargli l'inganno. Sono CERTO che sarebbe estremamente istruttivo. ;-) [...]
nel merito, sono leggermente perplesso di proporre agli studenti di farsi ingannatori di altri benché a motivo di studio.
I tuoi studenti vengono costantemente ingannati. E sono spesso nude marionette nelle mani di chi li inganna. Dunque imparare a mentire ed ingannare (sopratutto agenti cibernetici molto più potenti di ciascuno di loro) è questione di sopravvivenza. L'alternativa è adattarsi, rassegnarsi più o meno consciamente ad essere privati della propria autonomia cognitiva, accettare che il termine "libertà" venga ridotto alla assenza di vincoli fisici e prepararsi ad essere sempre più trattati non come sudditi, ma come bestiame. Non dubito che esista chi trova l'idea allettante. In fondo, i maiali mangiano tutti i giorni.
ricordo che qualcosa di simile fu già fatto in passato e pubblicato in PNAS Del Vicario, Michela, Alessandro Bessi, Fabiana Zollo, Fabio Petroni, Antonio Scala, Guido Caldarelli, H. Eugene Stanley, e Walter Quattrociocchi. «The spreading of misinformation online». Proceedings of the National Academy of Sciences 113, fasc. 3 (2016): 554–59. https://doi.org/10.1073/pnas.1517441113. ma soprattutto più che sulla comunicazione social preferirei focalizzare sull'uso dei sistemi di IA
Non devo essere stato molto chiaro. Il social network è "solo" la piattaforma dell'esperimento. La finalità didattica del corso sarebbe anzitutto comprendere (non solo capire) qual'è l'uso per cui questi "sistemi di IA" sono ottimizzati, sperimentandolo consapevolmente. La finalità educativa viene invece dal confronto con gli utenti vittime dell'inganno.
con pars destruens che mostra in modo chiaramente percepibile i difetti; pars construens che mostra quali usi sono efficaci
Appunto, questi strumenti sono ottimizzati per ingannare essere umani. Mostra ai tuoi studenti come utilizzarli per questo scopo e gli avrai veramente preparati per il futuro che stanno costruendo per loro. Giacomo [1] per chi non conoscesse il linguaggio OCaml (famiglia ML, storia trentennale etc...) un bel testo che lo usa come strumento educativo è "Lambda Coding in Draft" di Massimo Ghisalberti https://gitlab.com/minimalprocedure/lambda_coding/-/raw/master/lambda_coding... [2] https://www.sciencedirect.com/science/article/pii/S0957417424013228