Mi spiace Alfredo per averti dato l'impressione di volerla buttare in caciara, ti assicuro che credevo le mie parole fossero chiare e persino autoevidenti, ovvie... tanto da temere di annoiare la lista. Riproviamo. A quanto ho capito del tuo ragionamento, tu fai due affermazioni distinte, che ritieni entrambe vere: 1. La tecnologia è neutrale, tutto dipende dall'uso che se ne fa. 2. Gli LLM sono neutrali, dunque tutto dipende dall'uso che se ne fa. Io ritengo entrambe le affermazioni false, ovvero non rispondenti alla realtà. Permettimi di (ri)spiegarti il perché. # La tecnologia nel suo complesso non è MAI neutrale La prima affermazione è facile da falsificare per costruzione: è sufficiente elencare le diverse tecnologie progettate esplicitamente per nuocere, dalla mina antiuomo alla bomba atomica. Se riduciamo l'affermazione a "esistono anche tecnologie neutrali", dimostrarlo diventa davvero difficile: tutte le tecnologie menzionate (e tanto più quelle più complesse) sono politicamente orientate. Internet è sin dalla sua ideazione un'arma, progettata per garantire l'esecuzione di un controattacco nucleare durante la guerra fredda. Si è poi evoluta in un diverso tipo di arma, molto più offensiva [1]. Anche un coltello può essere progettato per essere usato esclusivamente a tavola per tagliare la cotoletta di pollo o per tagliare un tiramisù. Può ad esempio essere progettato per spezzarsi se sottoposto ad una minima pressione lungo l'asse di impugnatura, rendendolo inutilizzabile per accoltellare chicchessia pur essendo ottimo per tagliare la carne lungo la lama. Per contro, un coltello militare può essere progettato per lacerare i tessuti, producendo codette interne per un più rapido dissanguamento del nemico. Dunque, anche se possiamo usare la nostra fantasia per immaginare un coltello veramente neutrale [2], ogni coltello _reale_ facilita o impedisce determinati usi, avendo effetti politici concreti. # I LLM NON sono neutrali. Per tornare alla questione sollevata dalla Professoressa Vallor, sebbene esistano molti usi potenzialmente utili per le tecniche di programmazione statistica adottate anche per realizzare le "AI generative" (di cui gli LLM di cui parliamo sono un esempio), queste tecnologie sono intrinsecamente e fondativamente politicamente orientate. Lo sono sin dalla loro ideazione e progettazione, laddove i progettisti hanno come obiettivo minimo superare il test di Turing. Il test di Turing consiste, temo urga ricordarlo anche qui, nell'ingannare uno o più esseri umani sulla natura della sorgente dei dati sottoposti, spingendo le vittime ad attribuirli _erroneamente_ ad un essere umano. I creatori di un LLM conversazionale vincono questo "imitation game" se persone ignare attribuiscono intelligenza al loro software, e questi software sono progettati e continuamente ottimizzati esattamente per questo obiettivo. Obiettivo che è estremamente specifico: ingannare esseri umani affinché confondano la macchina con un altro essere umano. Per questa semplice ragione, le "AI generative" (e gli LLM di cui parliamo in particolare) possono essere usate SOLO per ingannare esseri umani. Perché è la loro ragion d'essere, l'obiettivo per cui sono ottimizzate a costo di miliardi di dollari ed enormi quantità di energia. Prendiamo, di nuovo (mi scuserà Guido, ma è veramente un fantastico esempio di pessimo uso di un LLM che può apparire ragionevole all'utente ignorante ormai succube della propaganda), il "riassuntino" che un LLM ha fatto del discorso della Professoressa Vallor. [3] Omette completamente aspetti fondamentali della metafora che propone su cui la Professoressa si era giustamente soffermata a lungo, riducendola ad affermazione ovvia, quanto trita e ritrita, sulle AI che amplificano e distorcono i dati umani da cui derivano. La Professoressa ha detto altro! Ha usato una metafora abbastanza attinente da un punto di vista tecnico per spiegare _come_ e _perché_ i software programmati statisticamente elaborano i dati in input e quelli sorgente compressi al proprio interno. E questa è solo una delle omissioni e banalizzazioni che l'output del LLM ha effettuato. Non ultima (guarda caso) l'omessa esclusione delle "AI generative" dalle tecnologie che potrebbero essere impiegate in modo socialmente utile. Eppure Guido, in assoluta buona fede, l'ha proposto come "sintesi dell'intervento". Ingannato sulla natura di quell'output, non prodotto da una mente intelligente che abbia compreso l'intervento, ha perpetuato l'inganno a sua volta sulla lista. Se fossimo su twitter, la chiameresti misinformazione. Se Guido fosse russo, la chiameresti disinformazione. :-D Guido stesso, in retrospettiva, potrebbe riconoscere di aver provato ad ingannare sé stesso sul tempo necessario a partecipare al dibattito in cui si inserisce il libro / intervento della Professoressa Vallor [4]. Ma tutti ricondurrebbero la responsabilità a Guido (vittima inconsapevole che arriva a difendere i propri carnefici [5]) o, al massimo, al software che ha "sfortunatamente" prodotto l'output "errato". Dovremmo invece ricondurla a coloro che hanno programmato quel software per ingannare Guido sulla sua abilità di comprendere un testo e produrne una "sintesi". Sia che ciò avvenga per ragioni economiche o politiche. (che poi... anche l'economia è politica...) Più in generale, una tecnologia progettata e realizzate per ingannare le persone può essere utilizzata _solo_ per ingannare persone. E' letteralmente un'arma. Il fatto che persone lontanissime dall'idea di rivolgere un'arma controllata da terzi contro sé stessi, la puntino quotidianamente alla propria testa, dovrebbe rendere evidente la sua potenza e pericolosità. Inoltre, paragonare tecnologie semplici come un coltello o un martello ad un LLM è sbagliato anche per il semplice fatto che costo e complessità realizzativa determinano una barriera all'ingresso tale da determinare intrinsecamente un orientamento politico: solo un élite molto ricca può permettersi di provare a costruirli, e lo farà solo se vi intravede un'utilità per sé nettamente superiore ai rischi. Per queste ragioni, ritengo che le affermazioni 1 e 2 siano false. Sono d'accordo che gli intenti "predatori" di molti esseri umani sono socialmente dannosi e vadano contenuti. E sono anche d'accordo che tali intenti siano alla base di molti dei problemi di cui discutiamo speso in questa lista. Tanto d'accordo che ho provato a spiegarti COME tali intenti siano fondativi e costituenti degli LLM, così come di molte altre armi. La tecnologia, spero di averti mostrato, è _sempre_ una espressione umana politicamente orientata, intrinsecamente, ancora prima che venga effettivamente utilizzata. Gli LLM conversazionali esistono per ingannare le menti, esattamente come le mine antiuomo esistono per uccidere e mutilare i corpi. Non possono essere usate per niente altro. E sono talmente efficaci nell'ingannare e nell'alienare l'uomo, che molte persone (anche colte e intelligenti) finiscono per credersi e dichiararsi poco diverse da questi software. Allo stesso modo possiamo creare software emancipatori e socialmente utili. Io ci provo da tempo [6] sebbene sia una lotta impari. Spero vivamente di essere stato finalmente più chiaro (di certo Maurizio, non sono stato conciso :-D), ma nel caso aveste ulteriori dubbi, forse potremmo continuare in privato per non tediare la lista. Giacomo [1] https://encrypted.tesio.it/2018/07/31/the-web-is-still-a-darpa-weapon.html i sono stati (e vi sono) diversi tentativi di rimuoverne (o mitigarne) gli aspetti offensivi e militari, ma sono troppo deboli. Si potrebbe dire che, di fatto, è come se stessimo conversando amabilmente in una piazza cosparsa di mine antiuomo, sforzandoci di non guardarle, di ignorare chi le indica e persino di arrestare chi prova a rimuoverle. [2] Ah se esistessero coltelli da cucina VERAMENTE NEUTRALI! Coltelli da cucina automaticamente impegnati a mantenere l'equilibrio fra bene e male! Quanti miliardari in meno! :-D https://assortedmeeples.com/true-neutral-dnd-alignment-guide [3] Per chi volesse rileggerlo: https://server-nexa.polito.it/pipermail/nexa/2025-January/053758.html [4] come, in fondo, ha delicatamente provato a fargli notare Alberto https://server-nexa.polito.it/pipermail/nexa/2025-January/053759.html [5] "Ebbene: un riassunto-traduzione come quello che ChatGPT ha fatto del transcript della Prof. Vallor qualche anno fa ce lo sognavamo, credimi." https://server-nexa.polito.it/pipermail/nexa/2025-January/053770.html NOTE to SELF: "approfondire cosa bevessero/mangiassero prima di andare a dormire, che nemmeno l'impepata di cozze..." :-D [6] https://jehanne.h--k.it/ https://monitora-pa.it/ https://code.tesio.it/p/self-hosting/doh.cgi/file?name=POLITICS.txt&ci=tip https://monitora-pa.it/LICENSE.txt