Re: [nexa] Esistono "tecnologie" "politicamente neutrali"?
On 13 Jan 2025, at 12:16, nexa-request@server-nexa.polito.it wrote:
Non parliamo però dell'idea astratta di una tecnologia (i "LLM") ma delle sue applicazioni concrete.
Proprio questo è il punto cruciale. Quando sostengo che bisogna distinguere tra tecnologia e le sue applicazioni, intendo proprio questo. Per tecnologia intendo i principi di base, la conoscenza tecnico scientifica utilizzabile per scopi pratici. Ogni applicazione concreta ha le sue finalità e di conseguenza è orientata a scopi e interessi di chi la realizza. Chi le produce deve esserne cosciente e si assume la responsabilità delle conseguenze. Chi le utilizza accetta e condivide la responsabilità degli effetti di tale utilizzo. Questa condivisione di responsabilità è coerente con le affermazioni che strumenti e loro utilizzatori costituiscono a volte un’accoppiata inseparabile di responsabilità. Ho fatto come esempio di tecnologia separato dalle applicazioni le tabelle dei logaritmi, ma anche per le altre applicazioni citate da qualcuno come controesempi di tecnologie non neutre si può fare la stessa distinzione: - smartphones: la tecnologia è semplicemente la combinazione di personal computer con connettività internet (GSM o WiFi). BTW, Tablet e PC usano la stessa tecnologia, per cui è artificiosa la critica agli uni e non agli altri. - StarLink, la tecnologia è quella dei satelliti LEO e della connettività Internet via radio e tramite link dinamici. Anche qui la critica al monopolio di Musk riguarda questa particolare istanza di servizio. - whatsapp, la tecnologia è un semplice la combinazione di tre protocolli: Signal, WebRTC e XMPP. Tutte queste tecnologie sono disponibili e altre implementazioni sono possibili. Il fatto che alcune di queste si siano imposte rispetto ad altre è una questione ben poco tecnologica (come è stato fatto notare non sempre si afferma la tecnologia migliore), ma principalmente antropologica (winner takes all o rich gets richer, che dipende dai limiti cognitivi della nostra mente: possiamo ricordare al più 3-4 cose per settore) che viene sfruttato dai sistemi economici e finanziari per promuovere un vincente e stroncare i concorrenti. La tecnologia ha sempre dei limiti ed è perfettamente legittimo metterli in evidenza. Per le attuali tecnologia degli LLM ci sono limiti riguardo la stima a priori dell’accuratezza, la scalabilità dei modelli, la quantità di dati necessaria all’apprendimento, il catastrophic forgetting, ecc. Ma direi che nessuno di questi costituisca una violazione di valori morali tale da metterle al bano o di sottoporle alla generale esecrazione. Esistono tecnologie che incorporano violazioni di principi morali. Ad esempio le camere a gas, anche se usate per eseguire pene capitali irrogate da un tribunale, sono un esempio: molti paesi hanno abolito la pena capitale e questo rende tali tecnologie contrarie ai principi morali a cui le leggi di quei paesi fanno riferimento. Lo stesso vale per le armi nucleari. Legittimo quindi da parte degli scienziati di rifiutarsi di sviluppare tecnologie destinate a tali usi o di sviluppare applicazioni che violino principi morali. —
Caro Beppe, passiamo il paragone anche se mi pare zoppichi un po'. I logaritmi non sono nemmeno tecnologia, sono matematica, come l'addizione. E chi pubblica tavole di logaritmi (purché corretti) non esercita alcun potere a distanza su chi le usa, cosa che accade in tutti gli altri esempi che fai. Nessuno dice (credo) che gli LLM siano /di per se/ una violazione di valori o principi morali, ma forniscono un grande potere. La loro diffusione e monetizzazione con i chatbot, senza prima aver fatto alcuna valutazione di impatto, è l'ennesima mossa irresponsabile ed immorale di un capitalismo industriale senza controllo, che tale potere usa senza scrupolo. Come accaduto in passato quando una nuova industria esplode senza una previa regolazione, ne seguono irreversibili danni ambientali: appropriazione di risorse comuni, degrado, inquinamento. Il termine evocativo usato per il territorio investito di questi danni è 'sacrifice zone'. Abbiamo visto cosa è successo con i social network e lo smartphone che hanno predato attenzione, consenso e relazioni. Assistiamo impotenti al potenziamento dello stesso capitalismo della sorveglianza che ora dispone della facoltà di produrre industrialmente testi e immagini con l'appropriazione del patrimonio linguistico comune, riversando masse di testi nell'ecosistema linguistico. L'ambiente minacciato non è solo quello energetico, in questi casi la 'sacrifice zone' è l'ambiente sociale e politico, e parlando di LLM, della lingua e del linguaggio. Questo pone la questione, certamente morale, a chi sviluppa tali tecnologie: se lasciare incondizionatamente tali strumenti e il potere che ne deriva nelle mani di chi ha già dimostrato di volerne abusare. Oppure porre delle condizioni, come sollecitarne la regolazione prima di consentirne il rilascio. Come ho già fatto notare, alcuni ambiti disciplinari si sono posti il problema dell'uso delle proprie scoperte prima che queste venissero buttate sul mercato, e ottenuto una regolazione. In altri contesti, è richiesta una approvazione prima di poter rilasciare prodotti sul mercato, che sia una caldaia o un farmaco. Non credo che la ragione per cui ciò non è avvenuto nell'industria ICT stia in una particolare immoralità degli informatici rispetto a fisici e biologi. Congetturo che sia dovuto da una parte nella irresponsabilità storica di una industria immatura, a cui è garantita l'impunità in virtù di un immotivato /tech exceptionalism/, e dall'altra nella distanza tra progettazione e impiego. Oppenheimer disse, descrivendo cosa lo spinse a creare la bomba A: «when you see something that is technically sweet, you go ahead and do it and you argue about what to do about it only after you have had your technical success». Ma lui sapeva bene che impiego avrebbe avuto la bomba. Oggi un informatico spesso non lo sa. Metti che uno sviluppa una tecnica di /recommendation/ pensando al marketing, poi se la trova utilizzata nella industrializzazione della kill chain di qualche servizio segreto. [1] Ammesso che non vi siano algoritmi immorali, dato il contesto non vi sono nemmeno più applicazioni innocenti. Sia chiaro che non voglio esprimere un giudizio su nessuno: è un problema che mi pongo anche io nella mia modestissima attività di ricerca. Morali o immorali, come ne usciamo? Un saluto, A. [1] <https://www.qmul.ac.uk/media/news/2024/hss/gaza-war-israel-using-ai-to-ident...> On 13/01/25 16:22, Giuseppe Attardi wrote:
On 13 Jan 2025, at 12:16,nexa-request@server-nexa.polito.it wrote:
Non parliamo però dell'idea astratta di una tecnologia (i "LLM") ma delle sue applicazioni concrete. Proprio questo è il punto cruciale. Quando sostengo che bisogna distinguere tra tecnologia e le sue applicazioni, intendo proprio questo. Per tecnologia intendo i principi di base, la conoscenza tecnico scientifica utilizzabile per scopi pratici.
Ogni applicazione concreta ha le sue finalità e di conseguenza è orientata a scopi e interessi di chi la realizza. Chi le produce deve esserne cosciente e si assume la responsabilità delle conseguenze. Chi le utilizza accetta e condivide la responsabilità degli effetti di tale utilizzo. Questa condivisione di responsabilità è coerente con le affermazioni che strumenti e loro utilizzatori costituiscono a volte un’accoppiata inseparabile di responsabilità.
Ho fatto come esempio di tecnologia separato dalle applicazioni le tabelle dei logaritmi, ma anche per le altre applicazioni citate da qualcuno come controesempi di tecnologie non neutre si può fare la stessa distinzione:
- smartphones: la tecnologia è semplicemente la combinazione di personal computer con connettività internet (GSM o WiFi). BTW, Tablet e PC usano la stessa tecnologia, per cui è artificiosa la critica agli uni e non agli altri. - StarLink, la tecnologia è quella dei satelliti LEO e della connettività Internet via radio e tramite link dinamici. Anche qui la critica al monopolio di Musk riguarda questa particolare istanza di servizio. - whatsapp, la tecnologia è un semplice la combinazione di tre protocolli: Signal, WebRTC e XMPP.
Tutte queste tecnologie sono disponibili e altre implementazioni sono possibili. Il fatto che alcune di queste si siano imposte rispetto ad altre è una questione ben poco tecnologica (come è stato fatto notare non sempre si afferma la tecnologia migliore), ma principalmente antropologica (winner takes all o rich gets richer, che dipende dai limiti cognitivi della nostra mente: possiamo ricordare al più 3-4 cose per settore) che viene sfruttato dai sistemi economici e finanziari per promuovere un vincente e stroncare i concorrenti.
La tecnologia ha sempre dei limiti ed è perfettamente legittimo metterli in evidenza. Per le attuali tecnologia degli LLM ci sono limiti riguardo la stima a priori dell’accuratezza, la scalabilità dei modelli, la quantità di dati necessaria all’apprendimento, il catastrophic forgetting, ecc. Ma direi che nessuno di questi costituisca una violazione di valori morali tale da metterle al bano o di sottoporle alla generale esecrazione.
Esistono tecnologie che incorporano violazioni di principi morali. Ad esempio le camere a gas, anche se usate per eseguire pene capitali irrogate da un tribunale, sono un esempio: molti paesi hanno abolito la pena capitale e questo rende tali tecnologie contrarie ai principi morali a cui le leggi di quei paesi fanno riferimento.
Lo stesso vale per le armi nucleari. Legittimo quindi da parte degli scienziati di rifiutarsi di sviluppare tecnologie destinate a tali usi o di sviluppare applicazioni che violino principi morali.
—
Ciao Giuseppe, forse ci avviciniamo ad una sintesi. Se ho capito, concordiamo nel definire "politicamente neutrale" un artefatto non intrinsecamente orientato politicamente, ovvero che 1. non presuppone alcuna specifica organizzazione sociale 2. non favorisce né sfavorisce alcun uso specifico, non favorendo o sfavorendo, di conseguenza, alcuna evoluzione della società nel tempo Sembrerebbe dunque che la nostra storica diatriba derivi da una diversa definizione di "tecnologia": On Mon, 13 Jan 2025 16:22:45 +0100 Giuseppe Attardi wrote:
Per tecnologia intendo i principi di base, la conoscenza tecnico scientifica utilizzabile per scopi pratici.
Ogni applicazione concreta ha le sue finalità e di conseguenza è orientata a scopi e interessi di chi la realizza.
Tu definisci "tecnologie" come conoscenze tecnico scientifiche applicabili nella creazione di artefatti. Le "tecnologie" di cui parli sono astratte ed "intangibili", talvolta persino ipotetiche. E fintanto che rimangono astratte, fintanto che rimangono informazione nella mente di chi vi fa ricerca, non possono avere effetti politici. Quando parli di "uso non neutrale" tu fai riferimento all'uso che di tale conoscenza fanno coloro che progettano e realizzano artefatti specifici, come un industria che realizza un'automobile, un programmatore che scrive un software o uno studente che realizza un LLM a partire dai testi di Shakespeare. Io invece definisco "tecnologie" insiemi di artefatti concreti, come possono essere gli LLM, gli orologi, gli smartphone, che esistono nella realtà e come tali sono inevitabilmente orientati politicamente, ovvero assumono (stabilizzando) o favoriscono determinate evoluzioni della società a scapito di altre. Quando parlo di "uso non neutrale" io faccio riferimento all'uso che degli artefatti di un dato insieme fanno le persone, coloro che guidano o parcheggiano l'automobile, che usano il software o che eseguono il LLM shakespeariano nella speranza di incantare una ragazza grazie alle "proprie" doti poetiche [1]. Treccani [2] (nonché l'etimologia :-D) avvalora la tua definizione, mentre Merriam-Webster [3] (nonché l'uso comune [4]) avvalora la mia. Per superare l'empasse potremmo concordare che (finché rimane) in teoria, la tecnologia è politicamente neutrale, ma (se viene applicata) in pratica non lo è mai. Ti pare una sintesi condivisibile?
I primi LM che facevo costruire 15 anni fa ai miei studenti erano ad esempio allenati sul corpus delle opere di Shakespeare: serviva a dimostrare come fossero in grado di acquisire la lingua e lo stile di Shakespeare. Poi lo si faceva sugli articoli del WSJ, mostrando che imparavano un altro linguaggio. Era quindi una tecnologia neutra rispetto al linguaggio.
Non "imparavano" alcunché, ma riproducevano i pattern presenti nel testo sorgente. Chissà come avrebbero valutato studentesse femministe l'output dello pseudo-shakespeare che gli hai fatto creare. La figura della donna nelle opere di Shakespeare è espressione dei suoi tempi e l'output di un LLM programmato statisticamente a partire da tali opere non potrebbe che riprodurne gli stereotipi. E questo, ricorderai [5], è una delle ragioni per cui nessun LLM reale potrà mai essere politicamente neutrale, essendo ottimizzato per riprodurre in output pattern presenti in testi che non sono neutrali. Giacomo [1] https://invidious.nerdvpn.de/watch?v=hwWKJ0uhiDo :-D [2] https://www.treccani.it/vocabolario/tecnologia/ [3] https://www.merriam-webster.com/dictionary/technology [4] e non pensare che mi sfugga l'amara ironia di essere vittima, io stesso, dell'egemonia culturale statunitense! :-D purtuttavia, di esempi analoghi a quelli riportati dal Merriam-Webster sono pieni anche i giornali italiani ed europei. [5] vedi riferimento a Minerva qui https://server-nexa.polito.it/pipermail/nexa/2025-January/053806.html
participants (3)
-
Alberto Cammozzo -
Giacomo Tesio -
Giuseppe Attardi