Ciao Maurizio,
ci sarebbe moltissimo da dire sulla consapevolezza del funzionamento
dei LLM commerciali e come questa potrebbe e dovrebbe ispirarne il
divieto.
Di certo, un ipotetico "modello LLM" programmato statisticamente ed in
modo trasparente e perfettamente riproducibile a partire da testi
sorgente disponibili liberamente e distribuito sotto una licenza
compatibile con quella dei sorgenti da cui deriva algoritmicamente,
potrebbe essere usato lecitamente ed eticamente per ottenere output
utilizzabili sotto la stessa licenza.
Tali "modelli" sono archivi compressi (con perdita) dei testi sorgente
espressi come matrici numeriche eseguibili da macchine virtuali
pomposamente (ed erroneamente) chiamati "motori inferenziali".
Eseguendoli, ne estrai iterativamente una parte statisticamente
correlata con l'input iniziale (prompt) e l'output prodotto ad ogni
iterazione, ripercorrendo in un certo senso l'archivio di testi lungo
le relazioni statistiche via via più frequenti.
Anche così, l'utilità del loro output è ingannevole: non corrisponde
completamente ad alcuno dei testi archiviati, ma troverai stralci di
diversi di essi. Tuttavia ipotizzo che vi possa essere un modo
di utilizzarli per diletto, laddove l'utente, che è perfettamente
consapevole della loro natura effimera e priva di significato
intrinseco li voglia consumare come si consuma la pornografia.
Per un programmatore che ne comprende il funzionamento, potrebbe essere
anche divertente nel contesto di un videogioco offline, per rendere più
realistici i dialoghi con i personaggi e, magari, più varia e
imprevedibile l'esperienza di gioco.
L'importante, con l'output di tali LLM "trasparenti", sarebbe la piena
e costante consapevolezza della finzione, dell'autoinganno e
della assenza di un qualsiasi reale significato nella sequenza
di lettere interpretata come testo.
On Thu, 20 Nov 2025 09:58:11 +0100 maurizio lana wrote:
Andrea Bolioli ha scritto "cerchiamo di limitare i rischi e le
perdite di tempo. (io uso i sistemi GenAI, non sono luddista)"
Io sono un hacker, non un luddista.
E NON uso alcun sistema di "GenAI".
Lo faccio a ragion veduta, per innumerevoli ragioni etiche e pratiche.
Ad esempio, non trovo corretto nei confronti del mio datore di lavoro
che mi paga per scrivere software finanziario che muove centinaia
di milioni di euro ogni anno, rischiare la reputazione di altissima
qualità della nostra azienda. Non lo trovo corretto nei confronti dei
miei colleghi che si potrebbero trovare a debuggare codice "generato
male". E non lo trovo neanche furbo, perché poi spesso i bug più
devastanti, quelli che nessuno riesce a riprodurre sistematicamente
ancor prima di correggere, tocca sistemarli a me.
L'altro giorno per ragioni lavorative ho dovuto assistere
all'AngularDay, un workshop organizzato a Verona su un framework GUI
sviluppato da Google. Angular è l'apice insuperato della
sovra-ingegnerizzazione in javascript: moltissime aziende lo adottano
come antidoto (oggettivamente efficace) al caos dell'ecosistema.
Come puoi immaginare questi eventi sono spot pubblicitari specializzati
per far presa sui programmatori, inframmezzati con qualche intervento
effettivamente interessante (ne ho visti tre o quattro, di Laura
Pedenaud, di Massimo Artizzu, di Davide Senatore e di Alex Okrushko).
Come puoi immaginare, buona parte dell'evento è però stato una sorta di
trattamento ludovico atto a convincere gli sviluppatori presenti
ad adottare Gemini o altri coding assistant per fare "vibecoding".
Tuttavia è stato divertente notare come persino un "Google Developer
Expert" che presenta un talk dal titolo "Vibing the Future with
Angular: Leveraging Gemini & Web-LLM for Intelligent Experiences" debba
ammettere che (cito dalle slide):
"""
The cost of AI beyond code generation:
- Debugging: 5x longer
- Security audits: Manual Review required
- Technical dept: compounds EXPONENTIALLY
- Team velocity: Slows over time
"""
Le stime sono molto ottimistiche (io ho osservato per più di un 5x nei
tempi di risoluzioni dei bug da parte di colleghi che hanno osato
mettere in produzione codice prodotto in questo modo, ma Ahsan Ayaz ha
anche aggiunto (a voce) che naturalmente, questi sono problemi davvero
rilevanti solo se si dovrà mantenere il software: se stai solo facendo
un prototipo o un mockup CHE NESSUNO DOVRA' VERAMENTE USARE, puoi non
preoccupartene.
Ma come vedi, stai di nuovo usando la "AI" per ingannare qualcuno: chi
vede il prototipo, te stesso, chi vede il talk etc...
Un esempio interessante di questo uso consapevole delle "AI generative"
si è verificato recentemente nella comunità che mantiene il compilatore
OCaml [1]: https://github.com/ocaml/ocaml/pull/14369
Uno sviluppatore senza alcuna competenza specifica nella scrittura di
compilatori ha proposto una patch generata con Cloud da oltre 13 mila
righe, specificando di non aver scritto personalmente neanche una riga
e di aver solo "guidato" il software.
La comunità ovviamente non l'ha inclusa nella codebase, per almeno due
ragioni (ma ti invito a leggere la issue, un dialogo talmente alienato
da apparire a tratti surreale):
- il codice proposto somiglia molto a quello di un altro compilatore
(OxCaml) e Cloud ne ha perfino attribuito la paternità ad uno degli
sviluppatori (che però NON ha partecipato allo "sviluppo" della patch)
- nessuno vuole l'onere di mantenere quel codice che nessuna mente umana
davvero conosce e comprende
Chi è vittima dell'inganno, in questo caso?
Beh anzitutto gli sviluppatori del compilatore OCaml hanno perso un
sacco di tempo, ma ne perderebbero molto di più se accettassero la
modifica, come spiegava Ahsan Ayaz all'AngularDay.
Poi lo è Mark Shinwell, sviluppatore di oxcaml, che si vede attribuito
codice che non ha mai scritto (una cosa che credo violi quelli che in
Italia vengono definiti diritti morali dell'autore e personalmente
vivrei come una violenza offensiva).
Lo anche sono gli sviluppatori che leggeranno l'articolo di Joel Reymont
che ha accompagnato la creazione della patch (un vero e proprio spot per
Claude), senza approfondire la questione.
Infine lo è Joel Reymont stesso, che crede di aver fornito un
contributo utile alla comunità e non sembra non comprendere
assolutamente il rifiuto (e il danno reputazionale che si sta
auto-infliggendo).
esempio: leggendo la frase di Vannevar Bush "publication has been
extended far beyond our present ability to make real use of the
record" mi sembra di ricordare che in letteratura già al tempo
dell’invenzione della stampa si trovano tracce dell'idea che sia
difficile acquisire un solida conoscenza delle ora adesso che ci sono
così tanti libri e che non siamo in grado di leggerli tutti.
In sostanza, la giustificazione dell'esistenza dei motori di ricerca.
:-D
questa richiesta data in input al chatbot genera in output un elenco
corretto di fonti sul tema, che con successivi input vien focalizzato
sul 500-600, o sulla contemporaneità.
L'interpretazione del linguaggio naturale e la sua trasformazione in
una serie di filtri specifici per un database immenso come quello
di un motore di ricerca, è sicuramente un'applicazione utile delle
vector mapping machines (impropriamente dette "reti neurali
artificiali"). Molto più problematica è la generazione di eventuali
riassunti che hanno una probabilità di non corrispondere al
contenuto originale superiore al 40% [2]
Ma chi sta ingannando questa applicazione?
Beh, Maurizio, perdonami la franchezza, ma la prima vittima
dell'inganno sei tu, che non cogliendo il funzionamento (probabile) del
software che utilizzi, attribuisci ad un suo componente (il LLM, in
questo caso) più rilevanza di quanto non ne abbia.
Proprio mentre la bolla IA inizia lentamente a deflagare e i produttori
di chatbot hanno un disperato bisogno di believer/supporter.
Vieni spinto a credere di aver acquisito una conoscenza che non avresti
potuto ottenere senza IA, mentre ciò che te lo impedisce davvero è
l'accessibilità del database su cui il software ha effettuato le query.
In altri termini, tu credi che l'AI mode di Google che ti permetta di
trovare ciò che cerchi, mentre in realtà Google ti impedisce di
accedere al suo preziosissimo database direttamente, nascondendoti
tutta la conoscenza che vi ha indicizzato se non quella minima parte
che sceglie di mostrarti per i propri (non per i tuoi!) scopi.
Quali articoli rilevanti ti ha nascosto? Perché? Quali secondari ha
incluso? Perché? Quanta parte della risposta è stata determinata dalle
ricerché che hai personalmente svolto nei decenni precedenti (tutto
accuratamente registrate)? Quanta dalle opinioni che hai espresso
pubblicamente?
Non lo saprai mai.
Ma non ti interessa, vero?
E _perché_ non ti interessa? ;-)
Ma non sei l'unica vittima di questo inganno.
Il tuo uso della "AI generativa" (di cui non conosci precisamente
funzionamento, impatto ambientale ed esternalità), ne giustifica
l'esistenza anche agli occhi di coloro che ti stanno intorno, dei tuoi
studenti etc... che ti stimano e ti sentono fantasticare di "uso
consapevole dell'AI" diverso da quello di ingannare qualcuno.
con un motore di ricerca questo non sarebbe possibile.
Certo che lo sarebbe. Non confondere la inputbox di Google con quello
che si può fare con un motore di ricerca.
Il problema non è la ricerca ma come fornire un'interfaccia di ricerca
"facile" da usare senza dover studiare un manuale di 300 pagine.
Con un'interfaccia professionale (come un linguaggio di interrogazione,
à la SQL) che interrogasse il database di Google, potresti trovare
di più, più rapidamente e più precisamente.
Ma tu non noti l'infinità di conoscenza che Google ti nasconde.
Noti solo le briciole che ti concede se fai il bravo.
E attribuisci la qualità alla tecnologia del giorno su cui Google (o
chi altri abbia prodotto il chatbot di ricerca che hai utilizza) ha
investito (e rischia di perdere) centinaia di miliardi.
Non saprei proprio come scriverlo in un manifesto,
per quanto capisco è il problema della prima parte di dum Romase
consulitur: non c'è dubbio che sia difficile scriverlo in un
manifesto; ma se non si si scrive, o non si fanno azioni analoghe,
continua l'uso (generalmente) inconsapevole di tecnologie ingannevoli
(ma come ho detto ci sono anche possibili usi non ingannevoli ed
efficaci; ma quasi sconosciuti) e quindi Sagunto viene espugnata
No.
Tutti gli usi efficaci di questa tecnologia hanno a che fare con
l'inganno di esseri umani. Non tutti sono deprecabili.
Può succedere che la persona ingannata sia consenziente rispetto
all'inganno (io ad esempio, lo sono quando leggo Le Guin o Jordan).
Ciò non ne cambia la natura o la funzione cibernetica.
ma in un contesto
universitario, potresti organizzare un corso sull'uso consapevole di
questi strumenti, spiegando agli studenti come creare profili social
fittizi, con foto fittizie, personalità fittizie e idee fittizie, e
come farli interagire con persone ignare sulla piattaforma di
interesse. Gli studenti, durante il corso dovrebbero provare a
diffondere una credenza falsa (ma plausibile), usando anche tutti i
dati raccolti dalle interazioni con gli altri utenti. Al termine
del corso poi dovrebbero contattare gli utenti ignari,
intervistarli e rivelargli l'inganno.
Sono CERTO che sarebbe estremamente istruttivo. ;-)
[...]
nel merito, sono leggermente perplesso di proporre agli studenti di
farsi ingannatori di altri benché a motivo di studio.
I tuoi studenti vengono costantemente ingannati.
E sono spesso nude marionette nelle mani di chi li inganna.
Dunque imparare a mentire ed ingannare (sopratutto agenti cibernetici
molto più potenti di ciascuno di loro) è questione di sopravvivenza.
L'alternativa è adattarsi, rassegnarsi più o meno consciamente ad essere
privati della propria autonomia cognitiva, accettare che il termine
"libertà" venga ridotto alla assenza di vincoli fisici e prepararsi ad
essere sempre più trattati non come sudditi, ma come bestiame.
Non dubito che esista chi trova l'idea allettante.
In fondo, i maiali mangiano tutti i giorni.
ricordo che qualcosa di simile fu già fatto in passato e pubblicato
in PNAS Del Vicario, Michela, Alessandro Bessi, Fabiana Zollo, Fabio
Petroni, Antonio Scala, Guido Caldarelli, H. Eugene Stanley, e Walter
Quattrociocchi. «The spreading of misinformation online». Proceedings
of the National Academy of Sciences 113, fasc. 3 (2016): 554–59.
https://doi.org/10.1073/pnas.1517441113.
ma soprattutto più che sulla comunicazione social preferirei
focalizzare sull'uso dei sistemi di IA
Non devo essere stato molto chiaro.
Il social network è "solo" la piattaforma dell'esperimento.
La finalità didattica del corso sarebbe anzitutto comprendere (non solo
capire) qual'è l'uso per cui questi "sistemi di IA" sono ottimizzati,
sperimentandolo consapevolmente. La finalità educativa viene invece dal
confronto con gli utenti vittime dell'inganno.
con pars destruens che mostra in modo chiaramente percepibile i
difetti; pars construens che mostra quali usi sono efficaci
Appunto, questi strumenti sono ottimizzati per ingannare essere umani.
Mostra ai tuoi studenti come utilizzarli per questo scopo e gli avrai
veramente preparati per il futuro che stanno costruendo per loro.
Giacomo
[1] per chi non conoscesse il linguaggio OCaml (famiglia ML, storia
trentennale etc...) un bel testo che lo usa come strumento educativo
è "Lambda Coding in Draft" di Massimo Ghisalberti
https://gitlab.com/minimalprocedure/lambda_coding/-/raw/master/lambda_coding.pdf
[2] https://www.sciencedirect.com/science/article/pii/S0957417424013228