Eppure Guido, in assoluta buona fede, l'ha proposto come "sintesi
dell'intervento". Ingannato sulla natura di quell'output, non prodotto
da una mente intelligente che abbia compreso l'intervento, ha
perpetuato l'inganno a sua volta sulla lista.
Mi spiace Alfredo per averti dato l'impressione di volerla buttare in
caciara, ti assicuro che credevo le mie parole fossero chiare e persino
autoevidenti, ovvie... tanto da temere di annoiare la lista.
Riproviamo.
A quanto ho capito del tuo ragionamento, tu fai due affermazioni
distinte, che ritieni entrambe vere:
1. La tecnologia è neutrale, tutto dipende dall'uso che se ne fa.
2. Gli LLM sono neutrali, dunque tutto dipende dall'uso che se ne fa.
Io ritengo entrambe le affermazioni false, ovvero non rispondenti alla
realtà. Permettimi di (ri)spiegarti il perché.
# La tecnologia nel suo complesso non è MAI neutrale
La prima affermazione è facile da falsificare per costruzione: è
sufficiente elencare le diverse tecnologie progettate esplicitamente
per nuocere, dalla mina antiuomo alla bomba atomica.
Se riduciamo l'affermazione a "esistono anche tecnologie neutrali",
dimostrarlo diventa davvero difficile: tutte le tecnologie menzionate
(e tanto più quelle più complesse) sono politicamente orientate.
Internet è sin dalla sua ideazione un'arma, progettata per garantire
l'esecuzione di un controattacco nucleare durante la guerra fredda.
Si è poi evoluta in un diverso tipo di arma, molto più offensiva [1].
Anche un coltello può essere progettato per essere usato esclusivamente
a tavola per tagliare la cotoletta di pollo o per tagliare un tiramisù.
Può ad esempio essere progettato per spezzarsi se sottoposto ad una
minima pressione lungo l'asse di impugnatura, rendendolo inutilizzabile
per accoltellare chicchessia pur essendo ottimo per tagliare la carne
lungo la lama.
Per contro, un coltello militare può essere progettato per lacerare i
tessuti, producendo codette interne per un più rapido dissanguamento
del nemico.
Dunque, anche se possiamo usare la nostra fantasia per immaginare un
coltello veramente neutrale [2], ogni coltello _reale_ facilita o
impedisce determinati usi, avendo effetti politici concreti.
# I LLM NON sono neutrali.
Per tornare alla questione sollevata dalla Professoressa Vallor,
sebbene esistano molti usi potenzialmente utili per le tecniche di
programmazione statistica adottate anche per realizzare le "AI
generative" (di cui gli LLM di cui parliamo sono un esempio),
queste tecnologie sono intrinsecamente e fondativamente
politicamente orientate.
Lo sono sin dalla loro ideazione e progettazione, laddove i progettisti
hanno come obiettivo minimo superare il test di Turing.
Il test di Turing consiste, temo urga ricordarlo anche qui,
nell'ingannare uno o più esseri umani sulla natura della sorgente
dei dati sottoposti, spingendo le vittime ad attribuirli _erroneamente_
ad un essere umano.
I creatori di un LLM conversazionale vincono questo "imitation game" se
persone ignare attribuiscono intelligenza al loro software, e questi
software sono progettati e continuamente ottimizzati esattamente per
questo obiettivo.
Obiettivo che è estremamente specifico: ingannare esseri umani affinché
confondano la macchina con un altro essere umano.
Per questa semplice ragione, le "AI generative" (e gli LLM di cui
parliamo in particolare) possono essere usate SOLO per ingannare
esseri umani.
Perché è la loro ragion d'essere, l'obiettivo per cui sono ottimizzate
a costo di miliardi di dollari ed enormi quantità di energia.
Prendiamo, di nuovo (mi scuserà Guido, ma è veramente un fantastico
esempio di pessimo uso di un LLM che può apparire ragionevole all'utente
ignorante ormai succube della propaganda), il "riassuntino" che un LLM
ha fatto del discorso della Professoressa Vallor. [3]
Omette completamente aspetti fondamentali della metafora che propone su
cui la Professoressa si era giustamente soffermata a lungo, riducendola
ad affermazione ovvia, quanto trita e ritrita, sulle AI che amplificano
e distorcono i dati umani da cui derivano.
La Professoressa ha detto altro!
Ha usato una metafora abbastanza attinente da un punto di vista tecnico
per spiegare _come_ e _perché_ i software programmati statisticamente
elaborano i dati in input e quelli sorgente compressi al proprio
interno.
E questa è solo una delle omissioni e banalizzazioni che l'output del
LLM ha effettuato. Non ultima (guarda caso) l'omessa esclusione delle
"AI generative" dalle tecnologie che potrebbero essere impiegate
in modo socialmente utile.
Eppure Guido, in assoluta buona fede, l'ha proposto come "sintesi
dell'intervento". Ingannato sulla natura di quell'output, non prodotto
da una mente intelligente che abbia compreso l'intervento, ha
perpetuato l'inganno a sua volta sulla lista.
Se fossimo su twitter, la chiameresti misinformazione.
Se Guido fosse russo, la chiameresti disinformazione. :-D
Guido stesso, in retrospettiva, potrebbe riconoscere di aver provato ad
ingannare sé stesso sul tempo necessario a partecipare al dibattito in
cui si inserisce il libro / intervento della Professoressa Vallor [4].
Ma tutti ricondurrebbero la responsabilità a Guido (vittima
inconsapevole che arriva a difendere i propri carnefici [5]) o, al
massimo, al software che ha "sfortunatamente" prodotto l'output
"errato".
Dovremmo invece ricondurla a coloro che hanno programmato quel software
per ingannare Guido sulla sua abilità di comprendere un testo e
produrne una "sintesi".
Sia che ciò avvenga per ragioni economiche o politiche.
(che poi... anche l'economia è politica...)
Più in generale, una tecnologia progettata e realizzate per ingannare
le persone può essere utilizzata _solo_ per ingannare persone.
E' letteralmente un'arma.
Il fatto che persone lontanissime dall'idea di rivolgere un'arma
controllata da terzi contro sé stessi, la puntino quotidianamente
alla propria testa, dovrebbe rendere evidente la sua potenza e
pericolosità.
Inoltre, paragonare tecnologie semplici come un coltello o un
martello ad un LLM è sbagliato anche per il semplice fatto che costo e
complessità realizzativa determinano una barriera all'ingresso tale
da determinare intrinsecamente un orientamento politico: solo un élite
molto ricca può permettersi di provare a costruirli, e lo farà solo
se vi intravede un'utilità per sé nettamente superiore ai rischi.
Per queste ragioni, ritengo che le affermazioni 1 e 2 siano false.
Sono d'accordo che gli intenti "predatori" di molti esseri umani sono
socialmente dannosi e vadano contenuti.
E sono anche d'accordo che tali intenti siano alla base di molti
dei problemi di cui discutiamo speso in questa lista.
Tanto d'accordo che ho provato a spiegarti COME tali intenti siano
fondativi e costituenti degli LLM, così come di molte altre armi.
La tecnologia, spero di averti mostrato, è _sempre_ una espressione
umana politicamente orientata, intrinsecamente, ancora prima
che venga effettivamente utilizzata.
Gli LLM conversazionali esistono per ingannare le menti, esattamente
come le mine antiuomo esistono per uccidere e mutilare i corpi.
Non possono essere usate per niente altro.
E sono talmente efficaci nell'ingannare e nell'alienare l'uomo, che
molte persone (anche colte e intelligenti) finiscono per credersi
e dichiararsi poco diverse da questi software.
Allo stesso modo possiamo creare software emancipatori e socialmente
utili. Io ci provo da tempo [6] sebbene sia una lotta impari.
Spero vivamente di essere stato finalmente più chiaro (di certo
Maurizio, non sono stato conciso :-D), ma nel caso aveste ulteriori
dubbi, forse potremmo continuare in privato per non tediare la lista.
Giacomo
[1]
https://encrypted.tesio.it/2018/07/31/the-web-is-still-a-darpa-weapon.html
i sono stati (e vi sono) diversi tentativi di rimuoverne (o
mitigarne) gli aspetti offensivi e militari, ma sono troppo deboli.
Si potrebbe dire che, di fatto, è come se stessimo conversando
amabilmente in una piazza cosparsa di mine antiuomo, sforzandoci di
non guardarle, di ignorare chi le indica e persino di arrestare chi
prova a rimuoverle.
[2] Ah se esistessero coltelli da cucina VERAMENTE NEUTRALI!
Coltelli da cucina automaticamente impegnati a mantenere
l'equilibrio fra bene e male! Quanti miliardari in meno! :-D
https://assortedmeeples.com/true-neutral-dnd-alignment-guide
[3] Per chi volesse rileggerlo:
https://server-nexa.polito.it/pipermail/nexa/2025-January/053758.html
[4] come, in fondo, ha delicatamente provato a fargli notare Alberto
https://server-nexa.polito.it/pipermail/nexa/2025-January/053759.html
[5] "Ebbene: un riassunto-traduzione come quello che ChatGPT ha fatto
del transcript della Prof. Vallor qualche anno fa ce lo sognavamo,
credimi."
https://server-nexa.polito.it/pipermail/nexa/2025-January/053770.html
NOTE to SELF: "approfondire cosa bevessero/mangiassero prima di
andare a dormire, che nemmeno l'impepata di cozze..." :-D
[6] https://jehanne.h--k.it/
https://monitora-pa.it/
https://code.tesio.it/p/self-hosting/doh.cgi/file?name=POLITICS.txt&ci=tip
https://monitora-pa.it/LICENSE.txt