Buondì, nell'augurare a tutti un buon nuovo anno, segnalo questa lecture di Shannon Vallor, che affronta il tema dell'AI con un approccio filosofico che coniuga profondità e concretezza, di cui c'è sempre molto bisogno. Shannon Vallor - Inaugural Lecture 23.10.24 - University of Edinburgh In a mirror, dimly. Why AI can't tell our stories and why we must https://media.ed.ac.uk/media/Shannon+Vallor+-+Inaugural+Lecture+23.10.24+/1_... Silvia C.
forse suona un po' 'provocative' (e me ne scuso) ma questa è la sintesi dell'intervento (1 ora - e chi ce l'ha?) fatta da chi-sapete-voi :-) *Il talk, centrato sulla metafora dello specchio per descrivere l'intelligenza artificiale (IA), esplora come queste tecnologie riflettano, amplifichino e spesso distorcano i dati umani da cui derivano. L'autore utilizza lo specchio come una metafora più utile rispetto a quella della mente, sottolineando che le IA, come i modelli di linguaggio, non pensano, ma riflettono i dati raccolti, amplificando valori, pregiudizi e pattern già esistenti.* *Viene discusso il ruolo dell'IA nel trasformare aspetti fondamentali della società, come democrazia, educazione, scienze, media e clima, e si sottolinea il pericolo che essa rappresenta nel confondere le persone, facendole credere che ci sia una "mente" dietro le risposte intelligenti. Tuttavia, l'IA, come uno specchio, riflette solo ciò che ha appreso dai dati passati, senza la capacità di creare qualcosa di veramente nuovo.* *Il talk mette in guardia contro l'automazione indiscriminata dei processi decisionali umani, evidenziando il rischio di perdere la capacità di pensare in modo critico e creativo, e sottolinea la necessità di preservare il "tempo mentale" e lo "spazio mentale" per il pensiero profondo e la narrazione personale. Si invita a utilizzare l'IA in modo responsabile e con una chiara consapevolezza dei suoi limiti, ponendo enfasi sul fatto che le decisioni umane e i valori debbano rimanere al centro del suo utilizzo.* *Infine, l'autore critica l'uso dell'IA come strumento per sostituire la narrazione umana nei media, nell'educazione e nelle arti, e richiama l'importanza di mantenere la capacità umana di raccontare storie, immaginare futuri nuovi e affrontare le sfide collettive con creatività e autonomia.* è corretto? è utile? comunque, buon anno! G: PS: da Platone a Heidegger un sacco di gente si è lamentata della tecnica, ma questo non ha mai cambiato la tecnica. Forse sarebbe più utile ragionare in modo operativo ... On Thu, 2 Jan 2025 at 10:42, Silvia Crafa <crafa@math.unipd.it> wrote:
Buondì, nell'augurare a tutti un buon nuovo anno, segnalo questa lecture di Shannon Vallor, che affronta il tema dell'AI con un approccio filosofico che coniuga profondità e concretezza, di cui c'è sempre molto bisogno.
Shannon Vallor - Inaugural Lecture 23.10.24 - University of Edinburgh In a mirror, dimly. Why AI can't tell our stories and why we must
https://media.ed.ac.uk/media/Shannon+Vallor+-+Inaugural+Lecture+23.10.24+/1_...
Silvia C.
Caro Guido, mi spiace per te e per chi come te non ha più un'ora da dedicare a un contributo molto serio come quello della Vallor e deve ricorrere alle sintesi in bustina liofilizzata. A pensarci bene: se uno non ha il tempo, perché darsi la pena di far fare la sintesi e leggerla quando bastava il titolo a riassumere l'intervento: e chissà perché poi la Vallor si è presa la briga di parlare per un'ora... Non solo la sintesi dell'LLM non è corretta e non è utile, ma è anzi perniciosa: non rappresenta la lezione più di quanto mangiare la foto sulla confezione non rappresenti mangiare il panettone. Riassumere una poesia o la Costituzione non è provocatorio: è sbagliato, fuorviante, riduttivo e peggiorativo. Meglio sapere di ignorarne completamente il contenuto che mantenere la pretesa di conoscerlo per averne letto il riassunto. Spero che chi non ha i 45 minuti di tempo per ascoltare trovi i pochi minuti necessari per leggere questa parte della trascrizione (~33'), forse la più 'operativa', visto che non solo non si lamenta della tecnica, ma chiama ogni umano ad essere /ingegnere del proprio futuro/: più operativa di così...: Just as our AI mirrors don't know the space of reasons that we walk in, they don't know it's time either. That is they don't have what philosophers like Edmund Husserl called our temporal horizon. The human experience of an open and indeterminate world, held open by the flow of conscious time where something new is always just over the horizon of our present experience and about to come into view. What comes into view is often familiar, recognisable. The sun rises every single day, just as it has in all of human history. Taxes are always due, and my cat always wants breakfast way too early. But things and events of startling new shapes do arrive from time to time on an utterly unpredictable schedule. As the Scottish philosopher David Hume pointed out centuries ago, the unremovable wart on human reasoning is that we've got absolutely zero evidence that the future won't suddenly go all pair-shaped on us at any given instant. Life is utterly predictable until it isn't. But then that's a wart I'm eternally grateful for. Our ability to experience the future as utterly open is what makes us human because the future being a giant question mark is the heart of our cognitive, moral, artistic, and political freedom. It's what gives us the existential task of deciding each and every day and each and every moment, just how much of our past we want to bring with us into the future, how much of it we want to leave behind, and what we want to create in the open space that is new. The Spanish philosopher José Ortega y Gasset called this the task of auto-fabrication, literally self making. He said, to be human is to be called to be an engineer. An engineer of yourself by choosing from your future's open possibilities, which of those to make real? But also with others, you're called to be an engineer of the future that we will share together. We are engineers of human futures, all of us. We might try as engineers to keep things looking much the same, but that too is an engineering choice to carry the past forward. We can always choose otherwise and sometimes do. We abandon a commitment that we promise to hold for life, or we make a commitment that we swore we'd never take on. We can extend our trademark artistic style into endless satisfying variations or we can drop it on a dime and leave our audiences utterly baffled. We can stick with the dire politics we know, or we can say, 'to hell with this -- we're changing the game.' We can keep burning the world for the temporary benefit of a handful of billionaires, or we can say, 'no more.' But here's the thing. AI mirrors can't make these kinds of radically new choices. They're stuck pointing backward, reflecting what has been seen in the past. That's why their reflections keep regenerating the most common social biases and most widespread errors, a digital humanity's history. That's why the speeches and essays and songs they generate are so weirdly generic and somehow familiar, even though we've never seen them before. Credo che quello della Vallor sia un contributo illuminante e dotato di grande spessore, ringrazio Silvia per avercelo segnalato. Se il libro mantiene le aspettative che il talk ha generato, sarà un riferimento irrinunciabile. Buon anno, Alberto On 02/01/25 12:40, Guido Vetere wrote:
forse suona un po' 'provocative' (e me ne scuso) ma questa è la sintesi dell'intervento (1 ora - e chi ce l'ha?) fatta da chi-sapete-voi :-)
/Il talk, centrato sulla metafora dello specchio per descrivere l'intelligenza artificiale (IA), esplora come queste tecnologie riflettano, amplifichino e spesso distorcano i dati umani da cui derivano. L'autore utilizza lo specchio come una metafora più utile rispetto a quella della mente, sottolineando che le IA, come i modelli di linguaggio, non pensano, ma riflettono i dati raccolti, amplificando valori, pregiudizi e pattern già esistenti./
/Viene discusso il ruolo dell'IA nel trasformare aspetti fondamentali della società, come democrazia, educazione, scienze, media e clima, e si sottolinea il pericolo che essa rappresenta nel confondere le persone, facendole credere che ci sia una "mente" dietro le risposte intelligenti. Tuttavia, l'IA, come uno specchio, riflette solo ciò che ha appreso dai dati passati, senza la capacità di creare qualcosa di veramente nuovo./
/Il talk mette in guardia contro l'automazione indiscriminata dei processi decisionali umani, evidenziando il rischio di perdere la capacità di pensare in modo critico e creativo, e sottolinea la necessità di preservare il "tempo mentale" e lo "spazio mentale" per il pensiero profondo e la narrazione personale. Si invita a utilizzare l'IA in modo responsabile e con una chiara consapevolezza dei suoi limiti, ponendo enfasi sul fatto che le decisioni umane e i valori debbano rimanere al centro del suo utilizzo./
/Infine, l'autore critica l'uso dell'IA come strumento per sostituire la narrazione umana nei media, nell'educazione e nelle arti, e richiama l'importanza di mantenere la capacità umana di raccontare storie, immaginare futuri nuovi e affrontare le sfide collettive con creatività e autonomia. /
è corretto? è utile? comunque, buon anno!
G:
PS: da Platone a Heidegger un sacco di gente si è lamentata della tecnica, ma questo non ha mai cambiato la tecnica. Forse sarebbe più utile ragionare in modo operativo ...
On Thu, 2 Jan 2025 at 10:42, Silvia Crafa <crafa@math.unipd.it> wrote:
Buondì, nell'augurare a tutti un buon nuovo anno, segnalo questa lecture di Shannon Vallor, che affronta il tema dell'AI con un approccio filosofico che coniuga profondità e concretezza, di cui c'è sempre molto bisogno.
Shannon Vallor - Inaugural Lecture 23.10.24 - University of Edinburgh In a mirror, dimly. Why AI can't tell our stories and why we must https://media.ed.ac.uk/media/Shannon+Vallor+-+Inaugural+Lecture+23.10.24+/1_...
Silvia C.
Alberto, grazie per le tue compassionevoli parole, ma ti assicuro che l'ora risparmiata non l'ho passata a pettinare le bambole :-) Grazie anche per aver riportato un passaggio molto illuminante che chi-sai-tu aveva tralasciato nella sua stringata sintesi:
AI mirrors can't make these kinds of radically new choices.
Che però è un po' come dire che chi viaggia in treno non può fermarsi a guardare il panorama. [tornando seri] Strano: i cibernetici della prima ora cercavano proprio nell'aleatorietà ri-combinatoria dei vecchi generatori markoviani la possibilità di sovvertire il senso comune. Ora invece è passato il concetto dei 'pappagalli stocastici' e guardiamo agli automi come una oppressiva reificazione del già detto. Come sempre, le cose sono assai complesse e bisogna guardarci dentro caso per caso. Ma di fondo: che vuol dire che una AI non è libera di fare scelte 'radicalmente nuove'? Cosa sarebbe questa 'novità radicale'? Più che Husserl e Ortega y Gasset a me viene in mente Henri Bergson, con tutto il suo carico di ambiguità. Ma parliamone. E mi associo ai ringraziamenti per la condivisione, prima colpevolmente omessi. G. On Thu, 2 Jan 2025 at 15:58, Alberto Cammozzo via nexa < nexa@server-nexa.polito.it> wrote:
Caro Guido,
mi spiace per te e per chi come te non ha più un'ora da dedicare a un contributo molto serio come quello della Vallor e deve ricorrere alle sintesi in bustina liofilizzata.
A pensarci bene: se uno non ha il tempo, perché darsi la pena di far fare la sintesi e leggerla quando bastava il titolo a riassumere l'intervento: e chissà perché poi la Vallor si è presa la briga di parlare per un'ora...
Non solo la sintesi dell'LLM non è corretta e non è utile, ma è anzi perniciosa: non rappresenta la lezione più di quanto mangiare la foto sulla confezione non rappresenti mangiare il panettone. Riassumere una poesia o la Costituzione non è provocatorio: è sbagliato, fuorviante, riduttivo e peggiorativo. Meglio sapere di ignorarne completamente il contenuto che mantenere la pretesa di conoscerlo per averne letto il riassunto.
Spero che chi non ha i 45 minuti di tempo per ascoltare trovi i pochi minuti necessari per leggere questa parte della trascrizione (~33'), forse la più 'operativa', visto che non solo non si lamenta della tecnica, ma chiama ogni umano ad essere *ingegnere del proprio futuro*: più operativa di così...:
Just as our AI mirrors don't know the space of reasons that we walk in, they don't know it's time either.
That is they don't have what philosophers like Edmund Husserl called our temporal horizon. The human experience of an open and indeterminate world, held open by the flow of conscious time where something new is always just over the horizon of our present experience and about to come into view. What comes into view is often familiar, recognisable. The sun rises every single day, just as it has in all of human history. Taxes are always due, and my cat always wants breakfast way too early.
But things and events of startling new shapes do arrive from time to time on an utterly unpredictable schedule. As the Scottish philosopher David Hume pointed out centuries ago, the unremovable wart on human reasoning is that we've got absolutely zero evidence that the future won't suddenly go all pair-shaped on us at any given instant. Life is utterly predictable until it isn't. But then that's a wart I'm eternally grateful for. Our ability to experience the future as utterly open is what makes us human because the future being a giant question mark is the heart of our cognitive, moral, artistic, and political freedom. It's what gives us the existential task of deciding each and every day and each and every moment, just how much of our past we want to bring with us into the future, how much of it we want to leave behind, and what we want to create in the open space that is new.
The Spanish philosopher José Ortega y Gasset called this the task of auto-fabrication, literally self making. He said, to be human is to be called to be an engineer. An engineer of yourself by choosing from your future's open possibilities, which of those to make real? But also with others, you're called to be an engineer of the future that we will share together. We are engineers of human futures, all of us. We might try as engineers to keep things looking much the same, but that too is an engineering choice to carry the past forward. We can always choose otherwise and sometimes do. We abandon a commitment that we promise to hold for life, or we make a commitment that we swore we'd never take on. We can extend our trademark artistic style into endless satisfying variations or we can drop it on a dime and leave our audiences utterly baffled.
We can stick with the dire politics we know, or we can say, 'to hell with this -- we're changing the game.' We can keep burning the world for the temporary benefit of a handful of billionaires, or we can say, 'no more.' But here's the thing. AI mirrors can't make these kinds of radically new choices. They're stuck pointing backward, reflecting what has been seen in the past. That's why their reflections keep regenerating the most common social biases and most widespread errors, a digital humanity's history. That's why the speeches and essays and songs they generate are so weirdly generic and somehow familiar, even though we've never seen them before.
Credo che quello della Vallor sia un contributo illuminante e dotato di grande spessore, ringrazio Silvia per avercelo segnalato.
Se il libro mantiene le aspettative che il talk ha generato, sarà un riferimento irrinunciabile.
Buon anno,
Alberto
On 02/01/25 12:40, Guido Vetere wrote:
forse suona un po' 'provocative' (e me ne scuso) ma questa è la sintesi dell'intervento (1 ora - e chi ce l'ha?) fatta da chi-sapete-voi :-)
*Il talk, centrato sulla metafora dello specchio per descrivere l'intelligenza artificiale (IA), esplora come queste tecnologie riflettano, amplifichino e spesso distorcano i dati umani da cui derivano. L'autore utilizza lo specchio come una metafora più utile rispetto a quella della mente, sottolineando che le IA, come i modelli di linguaggio, non pensano, ma riflettono i dati raccolti, amplificando valori, pregiudizi e pattern già esistenti.*
*Viene discusso il ruolo dell'IA nel trasformare aspetti fondamentali della società, come democrazia, educazione, scienze, media e clima, e si sottolinea il pericolo che essa rappresenta nel confondere le persone, facendole credere che ci sia una "mente" dietro le risposte intelligenti. Tuttavia, l'IA, come uno specchio, riflette solo ciò che ha appreso dai dati passati, senza la capacità di creare qualcosa di veramente nuovo.*
*Il talk mette in guardia contro l'automazione indiscriminata dei processi decisionali umani, evidenziando il rischio di perdere la capacità di pensare in modo critico e creativo, e sottolinea la necessità di preservare il "tempo mentale" e lo "spazio mentale" per il pensiero profondo e la narrazione personale. Si invita a utilizzare l'IA in modo responsabile e con una chiara consapevolezza dei suoi limiti, ponendo enfasi sul fatto che le decisioni umane e i valori debbano rimanere al centro del suo utilizzo.*
*Infine, l'autore critica l'uso dell'IA come strumento per sostituire la narrazione umana nei media, nell'educazione e nelle arti, e richiama l'importanza di mantenere la capacità umana di raccontare storie, immaginare futuri nuovi e affrontare le sfide collettive con creatività e autonomia. *
è corretto? è utile? comunque, buon anno!
G:
PS: da Platone a Heidegger un sacco di gente si è lamentata della tecnica, ma questo non ha mai cambiato la tecnica. Forse sarebbe più utile ragionare in modo operativo ...
On Thu, 2 Jan 2025 at 10:42, Silvia Crafa <crafa@math.unipd.it> wrote:
Buondì, nell'augurare a tutti un buon nuovo anno, segnalo questa lecture di Shannon Vallor, che affronta il tema dell'AI con un approccio filosofico che coniuga profondità e concretezza, di cui c'è sempre molto bisogno.
Shannon Vallor - Inaugural Lecture 23.10.24 - University of Edinburgh In a mirror, dimly. Why AI can't tell our stories and why we must
https://media.ed.ac.uk/media/Shannon+Vallor+-+Inaugural+Lecture+23.10.24+/1_...
Silvia C.
Grazie davvero a Silvia per la segnalazione, veramente un'ora ben spesa. Concordo con Alberto, "se il libro mantiene le aspettative che il talk ha generato, sarà un riferimento irrinunciabile". Sono particolarmente curioso di leggere le proposte di utilizzo programmazione statistica a fini democratici. Ho infatti particolarmente apprezzato come ha risposto alla ricercatrice che le ha chiesto se e come si potrebbero usare le AI generative per decolonizzare l'insegnamento universitario. [1] Per non parlare della citazione di Ortega y Gasset, che userò d'ora in poi quando qualcuno dice che non tutti possono imparare a programmare. Nel merito, la metafora dello specchio proposta dalla Professoressa Vallor è molto interessante. I parallelismi che osserva fra dati e luce, fra "modello" e specchio, nonché fra intelligenza simulata e oggetto riflesso potrebbero essere effettivamente molto utili per spiegare questi software a bambini giustamente curiosi ma legittimamente privi delle competenze informatiche di base. Io stesso, definendo informazione, dato e informatica, ricordo che i computer (non solo le AI) sono meri specchi per le menti umane. [2] Un problema che però nel talk la Professoressa Vannon non i pone è "perché così tanti adulti hanno bisogno di metafore per spiegare un software costruito dall'uomo?". Non è un misterioso fenomeno naturale! Non se lo pone sebbene riconosca che tutte le metafore sono limitate. Infatti la metafora dello specchio levigato dai dati per riflettere l'intelligenza umana che quei dati rappresentano, soffre degli stessi limiti della metafora della calibrazione (che anche io usavo anni fa [3] e che ritroviamo in altra forma nell'Assisi AI Act recentemente passato in lista, "macchine calibrate con (tanti) dati"): nasconde responsabilità, arbitrio e potere di chi quei software li crea. La calibrazione di una bilancia lascia pochissima libertà a colui che la esegue, perché alla fine chiunque potrà verificarne il funzionamento corretto semplicemente collocandovi sopra pesi noti di riferimento. Esiste un peso "giusto", insomma. Uno specchio rifletterà comunque qualcosa che c'è fuori dallo specchio. Nessuna di queste affermazioni è applicabile ai software programmati statisticamente. Parlare invece di programmazione, ancorché statistica, pone sempre in evidenza il programmatore. Parlando di "software programmati statisticamente", siamo costretti a chiederci chi e per che scopi li ha programmati, invece di chiederci "cosa hanno imparato?": la differenza è sostanziale e ricca di implicazioni. Ad esempio: è intelligente chiedere chi ha programmato statisticamente un LLM per vincere l'imitation game, spendendo miliardi e ingannando milioni di persone, di riassumere un talk che letteralmente lo associa a ciarlatani che fanno giochi di specchi? Perché se non lo è, non è nemmeno intelligente chiederlo al LLM che ne riproduce pedissequamente la volontà, definendo lo spazio del pensabile di milioni di sciocchi. Dunque, credo ancora che "software programmato statisticamente" sia una locuzione migliore delle alternative proposte sin qui perché, contrariamente a "intelligenza artificiale", "macchine cognitive", "esseri tecnici", o anche "SALAMI", non è una metafora, ma una descrizione attinente e comprensibile di ciò di cui parliamo. Giacomo [1] """ For example, you mentioned the efforts that we might have to decolonise the curriculum. We might say, Okay, to a large language model. Here's my syllabus. I would like to decolonise this syllabus. Does this model understand why you want to do that? Does it understand why it's important? By the way, if you ask why it's important, it will give you an answer and it'll sound kind of plausible. That doesn't mean it understands the answer, right? [...] I do think actually there's a default argument for saying, what's your argument for using this tool? Is there a reason that will justify this expenditure of energy? Is there a reason that will justify you letting go off this work and handing it over to a machine? """ Queste ultime domande sono giustamente molto esigenti. Se chiedessimo a Guido, ad esempio, "perché ti sei sentito autorizzato a consumare l'energia richiesta da un LLM per produrre una pseudo-sintesi ridicola che, guarda caso, omette o banalizza tutti i punti salienti della critica di Vallor, riducendo l'intero talk ad una fuffa trita e ritrita di "creatività da preservare" e "uso responsabile" da giornaletto di provincia che riporta le brochure commerciali di Google & friends?", la sua risposta più probabile (alla luce dei dati recenti :-D) On Thu, 2 Jan 2025 16:40:20 +0100 Guido Vetere wrote:
l'ora risparmiata non l'ho passata a pettinare le bambole :-)
sarebbe indicativa proprio dell'urgenza di ascoltare il talk, per imparare a riservarsi tempo (oltre che spazio mentale) per annoiarsi, per abituarsi alla noia, e perché no, persino a pettinare le bambole. Scusami Guido, ma davvero, usando un LLM per "riassumere" questo talk, hai letteralmente confermato TUTTE le affermazioni dell'autrice sui gravi danni che l'AI generativa causa alla mente umana! :-D Credo che l'autrice apprezzerebbe l'ironia ricorsiva del breve siparietto, che non sarà sfuggita anche a tutti coloro che hanno effettivamente provato ad ascoltare il talk. [2] https://encrypted.tesio.it/2019/06/03/what-is-informatics.html#so-what-is-in... [3] https://encrypted.tesio.it/2018/01/19/the-delusions-of-neural-networks.html
Il 02/01/25 15:58, Alberto Cammozzo via nexa ha scritto:
Se il libro mantiene le aspettative che il talk ha generato, sarà un riferimento irrinunciabile. il libro è disponibile: Vallor, Shannon. /The AI Mirror: How to Reclaim Our Humanity in an Age of Machine Thinking/. Oxford, New York: Oxford University Press, 2024. https://global.oup.com/academic/product/the-ai-mirror-9780197759066.
Maurizio ------------------------------------------------------------------------ perché l’uomo possa fare pubblico uso della propria ragione è necessario che il potere agisca in pubblico norberto bobbio --- le persone per scegliere devono sapere, devono conoscere allora quello che un giornalista dovrebbe fare è informare giancarlo siani ------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
A furor di popolo - e per non dar adito - ho letto tutta la trascrizione (verosimilmente fatta da un software-programmato-statisticamente) del talk di Shannon Vallor. Lo so: mi sono perso quei tratti soprasegmentali (accenti, toni, sospiri) che sono parte integrante del Dasein linguistico, però ho avuto l'agio di soffermarmi su alcuni passaggi e pensarci un po' su - miracoli di quella tecnologia chiamata scrittura! Quello che mi perplime del discorso in toga e tocco sono alcune petizioni di principio e alcune apparenti inconsistenze. L'uso di questi software-programmati-statisticamente (AI nel seguito, per brevità) riempie lo 'spazio mentale' (mental space filling machine) perché, anche se potremmo usarli come supporto dei processi decisionali (we could try to use AI mirrors as aids to our own learning, thinking, deliberating) questo sarebbe 'poco efficiente' (but that would be less efficient), e comunque le AI non possono pensare il futuro se non nei termini del passato (they predict only what was already there in the training data). Insomma non è chiaro (o almeno non ho capito) se in linea di principio potremmo usare le AI come strumento critico oppure se queste siano inerentemente soppressive dell'uman pensiero. Io dico questo: che se si ha fiducia nell'autopoiesi (l'essere 'ingegneri di sé stessi') allora dobbiamo avere fiducia che questa capacità venga applicata anche quando usiamo le nuove macchine. Se non abbiamo fiducia nella libertà poietica, allora la brutta notizia è che non possiamo farci niente. Nel secolo scorso, la radio fu usata per fare 'mind shaping' della classe operaia tedesca, convincendola del fatto che fosse meglio credersi razzialmente superiori piuttosto che appropriarsi dei mezzi di produzione. Il resto è noto. "Dai nuovi mezzi [di comunicazione] usciranno le vecchie sciocchezze" aveva detto Brecht, ma si sbagliava per difetto. Proprio il 'broadcasting' aveva contribuito a promuovere il falso al vero, come Goebbels aveva ben intuito. E comunque la diffidenza dell'intellettuale verso i 'nuovi mezzi' non sortì alcun effetto pratico: la polemica contro il medium fu un atteggiamento sterile. Morale: proprio nella prospettiva fenomenologica ed esistenzialista evocata dalla Valler, dovremmo focalizzarci sull'uso progressista delle capacità che queste nuove tecnologie indubbiamente offrono. La geremiade serve a poco. Buona domenica! G. PS: e comunque il riassunto della trascrizione fatto da chi-sapete-voi non era niente male: provate voi a far di meglio :-) On Fri, 3 Jan 2025 at 21:57, maurizio lana <maurizio.lana@uniupo.it> wrote:
Il 02/01/25 15:58, Alberto Cammozzo via nexa ha scritto:
Se il libro mantiene le aspettative che il talk ha generato, sarà un riferimento irrinunciabile.
il libro è disponibile: Vallor, Shannon. *The AI Mirror: How to Reclaim Our Humanity in an Age of Machine Thinking*. Oxford, New York: Oxford University Press, 2024. https://global.oup.com/academic/product/the-ai-mirror-9780197759066.
Maurizio
------------------------------
perché l’uomo possa fare pubblico uso della propria ragione è necessario che il potere agisca in pubblico norberto bobbio --- le persone per scegliere devono sapere, devono conoscere allora quello che un giornalista dovrebbe fare è informare giancarlo siani
------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
"Dai nuovi mezzi [di comunicazione] usciranno le vecchie sciocchezze" aveva detto Brecht, ma si sbagliava per difetto Hai fatto bene a citare Bertolt Brecht, ma ricordiamola tutta la poesia: "Le nuove ere non cominciano di botto. Mio nonno viveva già nella nuova era mio nipote vivrà ancora in quella vecchia. La carne nuova si mangia con la forchetta vecchia. Non sono stati i veicoli semoventi né i carri armati non sono stati gli aerei sopra i nostri tetti né i bombardieri. Dalle nuove antenne sono uscite le vecchie scempiaggini. La saggezza è stata tramandata di bocca in bocca." Il piagnisteo prolisso è probabile che serva a poco, che risulti noioso, ma non credo che tacendo, le cose si sistemino da sole. Per adesso, dalle "nuove antenne", stanno uscendo sommari e riassunti, opinabili ma tutto sommato decenti (a parte qualche "allucinazione"). Domani, a forza di rimestare nello stesso contenitore, dubito che si riuscirà a distinguere il grano dal loglio. E' a quel punto che le "sciocchezze" diventeranno pericolose. A.
Caro Guido, per economia, rispondo in linea. Non credo che questa 'querelle' meriti molte altre parole, solo una precisazione e una domanda. On 04/01/25 10:43, Guido Vetere wrote:
A furor di popolo - e per non dar adito - ho letto tutta la trascrizione (verosimilmente fatta da un software-programmato-statisticamente) del talk di Shannon Vallor. Lo so: mi sono perso quei tratti soprasegmentali (accenti, toni, sospiri) che sono parte integrante del Dasein linguistico, però ho avuto l'agio di soffermarmi su alcuni passaggi e pensarci un po' su - miracoli di quella tecnologia chiamata scrittura!
Quello che mi perplime del discorso in toga e tocco sono alcune petizioni di principio e alcune apparenti inconsistenze. L'uso di questi software-programmati-statisticamente (AI nel seguito, per brevità) riempie lo 'spazio mentale' (mental space filling machine) perché, anche se potremmo usarli come supporto dei processi decisionali (we could try to use AI mirrors as aids to our own learning, thinking, deliberating) questo sarebbe 'poco efficiente' (but that would be less efficient), e comunque le AI non possono pensare il futuro se non nei termini del passato (they predict only what was already there in the training data). Insomma non è chiaro (o almeno non ho capito) se in linea di principio potremmo usare le AI come strumento critico oppure se queste siano inerentemente soppressive dell'uman pensiero.
Vallor distingue opportunamente tra impieghi del ML giustificati e quelli che alimentano lo hype AI (in particolare gli LLM). Nel nostro caso: la trascrizione automatica del talk magari è utile, il riassunto fatto dagli LLM non lo è. It's not my view that we must resist all uses of these technologies. But I do think actually there's a default argument for saying, what's your argument for using this tool? Is there a reason that will justify this expenditure of energy? Is there a reason that will justify you letting go of this work and handing it over to a machine? And there are cases where we do have a cogent argument, especially for something that's important to be done that we literally cannot do ourselves. Because of the mathematical power of these systems, there are kinds of problems it can solve that might take us centuries. The whole point about DeepMind's AlphaFold winning the Nobel Prize was centred around the fact that that model, which is not a generative AI tool like chatGPT, but it is a very large machine learning model. The reason that that model was worth the expenditure. Was because it can solve a problem that will save lives that we could not have done on our own without perhaps decades or centuries of time lost. Those are those kind of decisions that I think it's incumbent on us to reflect on rather than mindlessly saying, I have a task. Let me let AI fill it La domanda di Vallor è molto pragmatica: date le note conseguenze negative dell'uso massivo degli LLM, è giustificato il loro uso così estensivo? Salvano vite? Risolvono problemi veri? O la loro finale ragion d'essere sta solo nei profitti che generano? Aggiungo incidentalmente che quando la bolla AI scoppierà, tra le vittime ci saranno verosimilmente anche i progetti seri, come è successo con la bolla dotcom.
Io dico questo: che se si ha fiducia nell'autopoiesi (l'essere 'ingegneri di sé stessi') allora dobbiamo avere fiducia che questa capacità venga applicata anche quando usiamo le nuove macchine. Se non abbiamo fiducia nella libertà poietica, allora la brutta notizia è che non possiamo farci niente.
Non credo che /autopoiesi/ possa ridursi a 'ingegneria di se'. Il punto che ormai mi pare sia chiaro a chi legge questa lista è che il pericolo non sta nelle macchine, ma nel potere di chi le usa davvero per scopi di industrializzazione della manipolazione in scala. Le 'macchine' non sono questo o quello (mind filling, eccetera, o buone o cattive) per loro natura, ma per via del loro impiego nelle mani di chi le sviluppa e le usa per scopi quantomeno dubbi. Le capacità di quelle macchine nelle mani del collaudato business model del capitalismo della sorveglianza ci portano molto lontano da qualsiasi libertà, poietica o meno.
Nel secolo scorso, la radio fu usata per fare 'mind shaping' della classe operaia tedesca, convincendola del fatto che fosse meglio credersi razzialmente superiori piuttosto che appropriarsi dei mezzi di produzione. Il resto è noto. "Dai nuovi mezzi [di comunicazione] usciranno le vecchie sciocchezze" aveva detto Brecht, ma si sbagliava per difetto. Proprio il 'broadcasting' aveva contribuito a promuovere il falso al vero, come Goebbels aveva ben intuito. E comunque la diffidenza dell'intellettuale verso i 'nuovi mezzi' non sortì alcun effetto pratico: la polemica contro il medium fu un atteggiamento sterile.
Morale: proprio nella prospettiva fenomenologica ed esistenzialista evocata dalla Valler, dovremmo focalizzarci sull'uso progressista delle capacità che queste nuove tecnologie indubbiamente offrono. La geremiade serve a poco.
Se capisco bene, ogni resistenza è futile, accogliamo con serena rassegnazione i nuovi Goebbels, piuttosto concentriamoci a usare i loro stessi strumenti facendone qualcosa di ancora più 'progressista': sono curioso di sentire le proposte in tal senso. E per /geremiade/ immagino tu intenda il discorso del profeta di sventura che anticipa effetti avversi di qualche evento (come fece Brecht) che ovviamente suona lamentoso per chi quell'evento lo desidera o lo provoca. Come chiameresti invece il gioioso profeta che invece anticipa -sbagliando- effetti apparentemente favorevoli, tipo che quello delle "macchine che ci libereranno dal lavoro", fallace mantra progressista sin dalla prima rivoluzione industriale? Venditore di /snake oil/, imbonitore? A mio avviso la geremiade serve eccome, ma purtroppo è efficace solo nelle comunità scientifico-industriali responsabili, cioè capaci di accogliere il discorso critico e valutare responsabilmente come il proprio output sia in grado di interagire con la società in cui viene inserito. I biologi, per fare un esempio, sono stati capaci di moratorie. Come già mi sono chiesto in questa lista: come mai questo spirito critico e dialettico non si applica nelle tecnologie informatiche? Perché il solo profeta ascoltato è l'imbonitore?
Buona domenica!
Altrettanto! A.
G.
PS: e comunque il riassunto della trascrizione fatto da chi-sapete-voi non era niente male: provate voi a far di meglio :-)
On Fri, 3 Jan 2025 at 21:57, maurizio lana <maurizio.lana@uniupo.it> wrote:
Il 02/01/25 15:58, Alberto Cammozzo via nexa ha scritto:
Se il libro mantiene le aspettative che il talk ha generato, sarà un riferimento irrinunciabile.
il libro è disponibile: Vallor, Shannon. /The AI Mirror: How to Reclaim Our Humanity in an Age of Machine Thinking/. Oxford, New York: Oxford University Press, 2024. https://global.oup.com/academic/product/the-ai-mirror-9780197759066.
Maurizio
------------------------------------------------------------------------
perché l’uomo possa fare pubblico uso della propria ragione è necessario che il potere agisca in pubblico norberto bobbio --- le persone per scegliere devono sapere, devono conoscere allora quello che un giornalista dovrebbe fare è informare giancarlo siani
------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
On Sun, Jan 05, 2025 at 07:56:39PM +0100, Alberto Cammozzo via nexa wrote:
La domanda di Vallor è molto pragmatica: date le note conseguenze negative dell'uso massivo degli LLM, è giustificato il loro uso così estensivo? Salvano vite? Risolvono problemi veri? O la loro finale ragion d'essere sta solo nei profitti che generano?
Giustissimo, ma mi permetto di osservare che questo è un argomento "jolly" che potremmo, e dovremmo, applicare a tutte le tecnologie informatiche. Ci facciamo le stesse domande per YouTube (che, a oggi, consuma ~250x volte l'energia di ChatGpt)? A me pare che il contraltare dello hype pro-LLM è spesso uno hype *anti*-LLM, che rischia di influenzare le nostre riflessioni collettive e portare fuori fuoco le nostre critiche. Buon anno a tutt*, -- Stefano Zacchiroli . zack@upsilon.cc . https://upsilon.cc/zack _. ^ ._ Full professor of Computer Science o o o \/|V|\/ Télécom Paris, Polytechnic Institute of Paris o o o </> <\> Co-founder & CSO Software Heritage o o o o /\|^|/\ Mastodon: https://mastodon.xyz/@zacchiro '" V "'
Imteressante argomento "jolly" il benaltrismo... Giacomo Il 5 Gennaio 2025 19:11:25 UTC, Stefano Zacchiroli <zack@upsilon.cc> ha scritto:
On Sun, Jan 05, 2025 at 07:56:39PM +0100, Alberto Cammozzo via nexa wrote:
La domanda di Vallor è molto pragmatica: date le note conseguenze negative dell'uso massivo degli LLM, è giustificato il loro uso così estensivo? Salvano vite? Risolvono problemi veri? O la loro finale ragion d'essere sta solo nei profitti che generano?
Giustissimo, ma mi permetto di osservare che questo è un argomento "jolly" che potremmo, e dovremmo, applicare a tutte le tecnologie informatiche. Ci facciamo le stesse domande per YouTube (che, a oggi, consuma ~250x volte l'energia di ChatGpt)? A me pare che il contraltare dello hype pro-LLM è spesso uno hype *anti*-LLM, che rischia di influenzare le nostre riflessioni collettive e portare fuori fuoco le nostre critiche.
Buon anno a tutt*,
Caro Giacomo, approfitto della tua considerazione per aggiungerne un'altra, di carattere generale: nella discussione sui sistemi di cosiddetta "IA", generativa e non, a chi introduca una prospettiva critica, con riferimento alle Big Tech, viene spesso rimproverato di non cogliere gli aspetti positivi dei sistemi in questione. A me pare un argomento analogo a quello di chi, di fronte a una denuncia contro uno stupratore di bambini, reagisse, con annoiata superiorità, suggerendo di non demonizzare il sesso. Un caro saluto, Daniela ________________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Giacomo Tesio <giacomo@tesio.it> Inviato: domenica 5 gennaio 2025 23:15 A: nexa@server-nexa.polito.it; Stefano Zacchiroli Oggetto: Re: [nexa] In a mirror Imteressante argomento "jolly" il benaltrismo... Giacomo
Caro Alberto, se il rapporto costo\benefici degli LLM sia favorevole lo dirà la società nel suo intero. Molti analisti sono convinti che il 'prospect' sia estremamente favorevole, con un tasso di crescita annuale composto (CAGR) del 30% e un mercato che potrebbe raggiungere valori attorno ai 60 miliardi di dollari entro il 2030-2032. Si tratta di una bolla speculativa? Non credo. Con i LLM lo stato dell'arte del NLP (Natural Language Processing) ha fatto un salto quantico, basta dare un'occhiata ai proceedings delle ultime conferenze della ACL (Association for Computational Linguistics) o, su scala nazionale, dell'AILC (Associazione Italiana di Linguistica Computazionale). Tieni conto che operazioni come il riassunto (summarization) o l'estrazione di informazione (information extraction) hanno una vastissima applicazione industriale. Ebbene: un riassunto-traduzione come quello che ChatGPT ha fatto del transcript della Prof. Vallor qualche anno fa ce lo sognavamo, credimi. Beppe Attardi potrebbe dirci di più su questo. La mia raccomandazione è quella di dare ascolto con umiltà a chi lavora in questo campo da una vita. A te queste cose non servono? Bene, ma tu (perdonami) non sei un campione rappresentativo. Altro discorso è quello dell'AGI (Artificial General Intelligence). Qui sono d'accordo con chi sostiene che certi proclami, come quelli di Sam Altman, sono speculativi e scientificamente infondati. Rimando a un recente contributo <https://open.substack.com/pub/garymarcus/p/ai-still-lacks-common-sense-70-ye...> di Gary Marcus a cui ho poco da aggiungere. Ma l'ecosistema dei LLM non va confuso con queste hype. Stiamo muovendo verso uno scenario in cui molte delle cose che l'information technology linguistica ha provato a fare nei decenni scorsi saranno alla portata di tutti, con modelli 'aperti' da pochi miliardi di parametri (quindi efficienti) opportunamente addestrati su specifici task. Insomma, se invece di profetizzare la sventura ci volessimo impegnare per evitarla, forse il modo ci sarebbe. Cordialmente, G. On Sun, 5 Jan 2025 at 20:11, Stefano Zacchiroli <zack@upsilon.cc> wrote:
On Sun, Jan 05, 2025 at 07:56:39PM +0100, Alberto Cammozzo via nexa wrote:
La domanda di Vallor è molto pragmatica: date le note conseguenze negative dell'uso massivo degli LLM, è giustificato il loro uso così estensivo? Salvano vite? Risolvono problemi veri? O la loro finale ragion d'essere sta solo nei profitti che generano?
Giustissimo, ma mi permetto di osservare che questo è un argomento "jolly" che potremmo, e dovremmo, applicare a tutte le tecnologie informatiche. Ci facciamo le stesse domande per YouTube (che, a oggi, consuma ~250x volte l'energia di ChatGpt)? A me pare che il contraltare dello hype pro-LLM è spesso uno hype *anti*-LLM, che rischia di influenzare le nostre riflessioni collettive e portare fuori fuoco le nostre critiche.
Buon anno a tutt*, -- Stefano Zacchiroli . zack@upsilon.cc . https://upsilon.cc/zack _. ^ ._ Full professor of Computer Science o o o \/|V|\/ Télécom Paris, Polytechnic Institute of Paris o o o </> <\> Co-founder & CSO Software Heritage o o o o /\|^|/\ Mastodon: https://mastodon.xyz/@zacchiro '" V "'
Molti analisti sono convinti che il 'prospect' sia estremamente favorevole, con un tasso di crescita annuale composto (CAGR) del 30% e un mercato che potrebbe raggiungere valori attorno ai 60 miliardi di dollari entro il 2030-2032.
Fonte? 60 miliardi nel 2030, ad un tasso di crescita del 30%, valgono, a ritroso, 13 miliardi nel 2024, un po' pochini. Se prendiamo Statista, ci indica un market size di US$243bn nel 2025 e US$826bn nel 2030 (v. https://www.statista.com/outlook/tmo/artificial-intelligence/worldwide#marke... ) Ma, dal 2025 in avanti, sono "previsioni", anzi, "aspirazioni". I dati sul "consuntivo" indicano invece un crollo dal 2021 al 2022, con parziale recupero nel 2023 e 2024, il resto va sotto la voce "mi piacerebbe che". Lo scoppio della bolla non ci sarà, non perché l'AI sia la tecnologia del "futuro", ma perché non c'è stato l'aumento generalizzato e a dismisura del valore delle azioni (a parte NVIDIA). Nel 1998/2000 il settore legato ad Internet è cresciuto del 1000% nel rendimento rispetto agli anni precedenti, da qui la bolla e il successivo, drastico, ridimenzionamento. A.
numeri del genere li trovi qui [ https://univdatos.com/it/report/large-language-model-market/] ovviamente queste sono tutte previsioni (d'altra parte cosa potrebbero essere?) che variano in funzione degli indicatori e comunque vanno prese con le molle personalmente - ripeto - sono convinto delle previsioni di crescita sulla base di quello che osservo nella comunità scientifica e di quel poco che conosco dell'industria in effetti non c'è stata ancora alcuna 'bolla', ma di sicuro c'è il tentativo di crearla appunto con la cosiddetta AGI, per la quale Altman vorrebbe raccogliere la cifra monstre di 5000 e più miliardi. sono abbastanza convinto che alla fine non se ne farà nulla, perché non ci sono prove convincenti che i metodi tipo 'chain of thought' possano applicarsi in modo generalizzato, né (in my humble opinion) c'è alcuna solida teoria che possa giustificare un'aspettativa del genere, né, infine, di questa AGI c'è davvero bisogno (anzi: l'idea è filosoficamente oscena) G. PS: invito a far attenzione agli argomenti fantoccio (straw man), soprattutto se acquistano il tedioso carattere dell'insulto personale. On Mon, 6 Jan 2025 at 15:37, Antonio <antonio@piumarossa.it> wrote:
Molti analisti sono convinti che il 'prospect' sia estremamente favorevole, con un tasso di crescita annuale composto (CAGR) del 30% e un mercato che potrebbe raggiungere valori attorno ai 60 miliardi di dollari entro il 2030-2032.
Fonte?
60 miliardi nel 2030, ad un tasso di crescita del 30%, valgono, a ritroso, 13 miliardi nel 2024, un po' pochini.
Se prendiamo Statista, ci indica un market size di US$243bn nel 2025 e US$826bn nel 2030 (v. https://www.statista.com/outlook/tmo/artificial-intelligence/worldwide#marke... ) Ma, dal 2025 in avanti, sono "previsioni", anzi, "aspirazioni". I dati sul "consuntivo" indicano invece un crollo dal 2021 al 2022, con parziale recupero nel 2023 e 2024, il resto va sotto la voce "mi piacerebbe che". Lo scoppio della bolla non ci sarà, non perché l'AI sia la tecnologia del "futuro", ma perché non c'è stato l'aumento generalizzato e a dismisura del valore delle azioni (a parte NVIDIA). Nel 1998/2000 il settore legato ad Internet è cresciuto del 1000% nel rendimento rispetto agli anni precedenti, da qui la bolla e il successivo, drastico, ridimenzionamento.
A.
Salve. Uso sporadicamente chatGPT, e riferisco in particolare di tre occasioni: 1. Ho chiesto chiarimenti sul freno motore delle auto con motore diesel rispetto a quello a benzina. 2. Ho preso come riferimento la sua risposta per introdurre la mia (assolutamente negativa) alla domanda "In what way is metacognition paradoxical?" 3. Ho confrontato la sua risposta ("scolastica") con la mia ("creativo-divagatoria"), alla domanda "Come puoi dimostrare che la complessità della realtà è oltre la propria immaginazione (o il contrario)?" [Le ultime due domande erano di Quora (e si vede chiaramente che la fantasia nel porre domande più o meno furbine all'umano non manca).] Da quanto sopra, ho "temporaneamente concluso" quanto segue; - Ai miei chiarimenti sul diesel, ho ricevuto chiarimenti dotti, ...ma non sempre coerenti fra loro. Mi sembra cosa normale, dato un input (umano) molto probabilmente poco professionale su questi temi (una volta si diceva "garbage in, garbage out"; forse ancora oggi). - Per la faccenda "metacognition", mi ha fatto gioco avere in mano, per iniziare la mia risposta, un minimo di riferimento di base (che ho trovato semplice e ben fatto, ...immagino per un input a monte più serio). - Per il confronto fra la mia risposta e la sua, su un tema ..."vagofluido", si è vista "palpabilmente" (ma io giudice ero parte in causa) la differenza fra una risposta creativa e una "scolastica". Tutto ciò premesso (con l'AI attuale che si mostra valido rimestatore dei suoi input, senza molte nuance e creatività), continuo a rimanere della mia opinione: A. La predazione / sfruttamento / manipolazione è la costante universale della storia (della quale la guerra è solo l'esempio più triste e imbecille). B. Se con un coltello Tizio taglia la carne di manzo (non apriamo discorsi più o meno ideologici su vegetarismo e veganesimo, perché qui non c'entrano), e Caio sbudella qualcuno, il problema sta dalla parte di chi tiene il manico e non dalla parte della lama. Fuor di metafora: - Gli strumenti, più o meno beceri, non sono mai i colpevoli; i colpevoli sono gli utenti (per l'input e/o per l'utilizzo). - Stante il punto A sopra, ci sarà sempre qualcuno che userà il coltello alla maniera di Caio. Ne consegue che: C. Tutti i discorsi che si fanno sull'AI (e sui supposti connessi pericoli) non ha un bel nulla a che fare con l'AI stessa, ma solo con i suoi utenti (con i discorsi e i pericoli che rimarrebbero invariati anche mettendo in campo un'AI diversa, e/o una migliore educazione del popolo e/o dei giovani su temi informatici; questo perché il problema è essenzialmente di tipo socio-economico-predatorio, e meglio quindi sarebbe educare la gente su questo, ...ma quelli che usano male il coltello di certo non lo vogliono e non lo vorranno). Ovvero, smettiamo di fare discorsi "tecnici" quando il vero problema è altrove. So che l'AI è il tema del momento, ma non deve per forza diventare il prezzemolo di ogni discussione ("politica", intendo; ben venga una seria discussione "tecnica").
Ciao Alfredo, grazie per la tua riflessione, che mi ha suggerito alcune domande Il 6 Gennaio 2025 21:38:21 UTC, Alfredo Bregni <abregni@iperv.it> ha scritto:
Se con un coltello Tizio taglia la carne di manzo e Caio sbudella qualcuno, il problema sta dalla parte di chi tiene il manico e non dalla parte della lama.
Ma Tizio ha mai provato a macellare il manzo con un Kalašnikov? E con una bomba atomica? Tu ci hai mai provato? Se sì, come è andata? Se no, perché? Giacomo
Ciao Giacomo. Ti sei perso per strada il contesto: - Si parlava di AI, con le solite critiche e timori (NON tecnici); - Io l'ho paragonata a un coltello (e ho detto che il problema sta in chi tiene il manico). SE avessimo parlato di virus (informatici), magari allora avresti correttamente introdotto il tema Kalašnikov... E' diverso il caso di prodotti il cui intendimento è nuocere, da quelli "virati" al nuocere da parte di qualcuno (che poi è lo stesso che cerca i prodotti fatti per nuocere fin dall'inizio). E QUESTO io lo considero il problema fondamentale: la presenza di predatori / sfruttatori / manipolatori, ...che sono in grado di manipolarti anche con una caramella (NON esplosiva). Aloha. ----- Original Message ----- From: Giacomo Tesio To: Alfredo Bregni ; nexa@server-nexa.polito.it Sent: Tuesday, January 07, 2025 12:18 PM Subject: Re: [nexa] In a mirror Ciao Alfredo, grazie per la tua riflessione, che mi ha suggerito alcune domande Il 6 Gennaio 2025 21:38:21 UTC, Alfredo Bregni <abregni@iperv.it> ha scritto:
Se con un coltello Tizio taglia la carne di manzo e Caio sbudella qualcuno, il problema sta dalla parte di chi tiene il manico e non dalla parte della lama.
Ma Tizio ha mai provato a macellare il manzo con un Kalašnikov? E con una bomba atomica? Tu ci hai mai provato? Se sì, come è andata? Se no, perché? Giacomo
a me pare che la questione in gioco sia leggermente diversa: quali strumenti si usano per quali scopi. cioè non solo il fatto che i sistemi di IA siano sempre strumenti che qualcuno usa per uno scopo (di qui la responsabilità di chi usa lo strumento); ma che per ogni scopo c'è uno strumento adatto/appropriato. e per molti scopi ai quali li si vorrebbe destinare i sistemi di IA comunque non sono adatti: come usare un kalashnikov per macellare un manzo. (Giacomo a volte tendi ad uno stile di scrittura conciso/oscuro :-))) Maurizio Il 07/01/25 16:46, Alfredo Bregni ha scritto:
Ti sei perso per strada il contesto: - Si parlava di AI, con le solite critiche e timori (NON tecnici); - Io l'ho paragonata a un coltello (e ho detto che il problema sta in chi tiene il manico). SE avessimo parlato di virus (informatici), magari allora avresti correttamente introdotto il tema Kalašnikov... E' diverso il caso di prodotti il cui intendimento è nuocere, da quelli "virati" al nuocere da parte di qualcuno (che poi è lo stesso che cerca i prodotti fatti per nuocere fin dall'inizio). E QUESTO io lo considero il problema fondamentale: la presenza di predatori / sfruttatori / manipolatori, ...che sono in grado di manipolarti anche con una caramella (NON esplosiva). Aloha.
----- Original Message ----- *From:* Giacomo Tesio <mailto:giacomo@tesio.it> *To:* Alfredo Bregni <mailto:abregni@iperv.it> ; nexa@server-nexa.polito.it *Sent:* Tuesday, January 07, 2025 12:18 PM *Subject:* Re: [nexa] In a mirror
Ciao Alfredo,
grazie per la tua riflessione, che mi ha suggerito alcune domande
Il 6 Gennaio 2025 21:38:21 UTC, Alfredo Bregni <abregni@iperv.it> ha scritto: > > Se con un coltello Tizio taglia la carne di manzo e Caio sbudella qualcuno, > il problema sta dalla parte di chi tiene il manico e non dalla parte della lama.
Ma Tizio ha mai provato a macellare il manzo con un Kalašnikov? E con una bomba atomica?
Tu ci hai mai provato?
Se sì, come è andata? Se no, perché?
Giacomo
------------------------------------------------------------------------ lo straniero non parla e non capisce la nostra lingua, che non è più nostra, perché la nostra vera lingua diventa la traduzione, lo scambio luca ferrieri, dalla public library all’open library ------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Ciao Maurizio. Scusa, ma sono di parere diverso. Ci sono temi tecnici e politici, che stanno su piani diversi: - E' "tecnico" il tema se uno strumento va bene per qualche cosa; - E' "politico" il tema di usare per un certo scopo strumenti nati per uno scopo diverso. Nel tuo testo, i due piani (a me) appaiono ...confusi. A presto, A ----- Original Message ----- From: maurizio lana To: nexa@server-nexa.polito.it Sent: Tuesday, January 07, 2025 4:57 PM Subject: Re: [nexa] In a mirror a me pare che la questione in gioco sia leggermente diversa: quali strumenti si usano per quali scopi. cioè non solo il fatto che i sistemi di IA siano sempre strumenti che qualcuno usa per uno scopo (di qui la responsabilità di chi usa lo strumento); ma che per ogni scopo c'è uno strumento adatto/appropriato. e per molti scopi ai quali li si vorrebbe destinare i sistemi di IA comunque non sono adatti: come usare un kalashnikov per macellare un manzo. (Giacomo a volte tendi ad uno stile di scrittura conciso/oscuro :-))) Maurizio Il 07/01/25 16:46, Alfredo Bregni ha scritto: Ti sei perso per strada il contesto: - Si parlava di AI, con le solite critiche e timori (NON tecnici); - Io l'ho paragonata a un coltello (e ho detto che il problema sta in chi tiene il manico). SE avessimo parlato di virus (informatici), magari allora avresti correttamente introdotto il tema Kalašnikov... E' diverso il caso di prodotti il cui intendimento è nuocere, da quelli "virati" al nuocere da parte di qualcuno (che poi è lo stesso che cerca i prodotti fatti per nuocere fin dall'inizio). E QUESTO io lo considero il problema fondamentale: la presenza di predatori / sfruttatori / manipolatori, ...che sono in grado di manipolarti anche con una caramella (NON esplosiva). Aloha. ----- Original Message ----- From: Giacomo Tesio To: Alfredo Bregni ; nexa@server-nexa.polito.it Sent: Tuesday, January 07, 2025 12:18 PM Subject: Re: [nexa] In a mirror Ciao Alfredo, grazie per la tua riflessione, che mi ha suggerito alcune domande Il 6 Gennaio 2025 21:38:21 UTC, Alfredo Bregni <abregni@iperv.it> ha scritto: > > Se con un coltello Tizio taglia la carne di manzo e Caio sbudella qualcuno, > il problema sta dalla parte di chi tiene il manico e non dalla parte della lama. Ma Tizio ha mai provato a macellare il manzo con un Kalašnikov? E con una bomba atomica? Tu ci hai mai provato? Se sì, come è andata? Se no, perché? Giacomo ------------------------------------------------------------------------------ lo straniero non parla e non capisce la nostra lingua, che non è più nostra, perché la nostra vera lingua diventa la traduzione, lo scambio luca ferrieri, dalla public library all’open library ------------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Ciao Maurizio e Alfredo. Scusatemi, non era mia intenzione essere in alcun modo laconico, ma credevo che le domande fossero chiare abbastanza. L'argomento degli "strumenti neutrali" che possono essere utili per fare del bene o del male si scontra con la realtà di innumerevoli strumenti progettati esclusivamente per nuocere. La distinzione fra questione "tecnica" e questione "politica" è infondata: la tecnologia è un proseguimento della politica con altri mezzi. E questo è vero per la ruota, per la vela, per la radio, per la tv, per internet etc.. Gli LLM non sono paragonabili ad un coltello o un martello, ma ad una bomba atomica. In un altro thread, Alberto citava un articolo (che devo ancora leggere) in cui si chiedeva ai critici dei LLM di proporre utilizzi costruttivi. La richiesta stessa presuppone una critica miope e superficiale. Certo che gli LLM sono utili! Per esempio sono utilissimi a Microsoft, Google e Amazon per vendere servizi cloud. Sono utili ad alienare le persone. Ad abbassarne i salari. A diffondere disinformazione senza risponderne. Sono utili a esfiltrare segreti industriali dalle aziende che ne permettono l'uso ai dipendenti. Sono utili a violare i diritti altrui, siano commerciali (copyright) o fondamentali (protezione dei dati personali, onorabilità etc...) Sono insomma utilissimi a chi li programma. Ma essendo ottimizzati per superare il test di Turing (ovvero per ingannare esseri umani) possono solo essere usati da chi voglia ingannare esseri umani. E in quest'ambito sono utilissimi! :-D Come una bomba in un ufficio bancario, insomma. È utilissima, per chi vuole liberarsi dei sopravvissuti a una rapina. Eccetto che per i sopravvissuti. Spero di essere stato più chiaro. Giacomo Il 7 Gennaio 2025 16:34:15 UTC, Alfredo Bregni <abregni@iperv.it> ha scritto:
Ciao Maurizio.
Scusa, ma sono di parere diverso.
Ci sono temi tecnici e politici, che stanno su piani diversi: - E' "tecnico" il tema se uno strumento va bene per qualche cosa; - E' "politico" il tema di usare per un certo scopo strumenti nati per uno scopo diverso.
Nel tuo testo, i due piani (a me) appaiono ...confusi.
A presto, A
----- Original Message ----- From: maurizio lana To: nexa@server-nexa.polito.it Sent: Tuesday, January 07, 2025 4:57 PM Subject: Re: [nexa] In a mirror
a me pare che la questione in gioco sia leggermente diversa: quali strumenti si usano per quali scopi. cioè non solo il fatto che i sistemi di IA siano sempre strumenti che qualcuno usa per uno scopo (di qui la responsabilità di chi usa lo strumento); ma che per ogni scopo c'è uno strumento adatto/appropriato. e per molti scopi ai quali li si vorrebbe destinare i sistemi di IA comunque non sono adatti: come usare un kalashnikov per macellare un manzo.
(Giacomo a volte tendi ad uno stile di scrittura conciso/oscuro :-))) Maurizio
Il 07/01/25 16:46, Alfredo Bregni ha scritto:
Ti sei perso per strada il contesto: - Si parlava di AI, con le solite critiche e timori (NON tecnici); - Io l'ho paragonata a un coltello (e ho detto che il problema sta in chi tiene il manico).
SE avessimo parlato di virus (informatici), magari allora avresti correttamente introdotto il tema Kalašnikov...
E' diverso il caso di prodotti il cui intendimento è nuocere, da quelli "virati" al nuocere da parte di qualcuno (che poi è lo stesso che cerca i prodotti fatti per nuocere fin dall'inizio). E QUESTO io lo considero il problema fondamentale: la presenza di predatori / sfruttatori / manipolatori, ...che sono in grado di manipolarti anche con una caramella (NON esplosiva).
Aloha.
----- Original Message ----- From: Giacomo Tesio To: Alfredo Bregni ; nexa@server-nexa.polito.it Sent: Tuesday, January 07, 2025 12:18 PM Subject: Re: [nexa] In a mirror
Ciao Alfredo,
grazie per la tua riflessione, che mi ha suggerito alcune domande
Il 6 Gennaio 2025 21:38:21 UTC, Alfredo Bregni <abregni@iperv.it> ha scritto: > > Se con un coltello Tizio taglia la carne di manzo e Caio sbudella qualcuno, > il problema sta dalla parte di chi tiene il manico e non dalla parte della lama.
Ma Tizio ha mai provato a macellare il manzo con un Kalašnikov? E con una bomba atomica?
Tu ci hai mai provato?
Se sì, come è andata? Se no, perché?
Giacomo
------------------------------------------------------------------------------
lo straniero non parla e non capisce la nostra lingua, che non è più nostra, perché la nostra vera lingua diventa la traduzione, lo scambio luca ferrieri, dalla public library all’open library ------------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Ciao Giacomo.
Spero di essere stato più chiaro.
Non sei stato più chiaro. Hai buttato la cosa in caciara, ...per di più con affermazioni apodittiche (non nel significato originale, ma nel senso traslato di buttate là / fatte cadere dall'alto come se fossero vere, quando non lo sono).
L'argomento degli "strumenti neutrali" che possono essere utili per fare del bene o del male si scontra con la realtà di innumerevoli strumenti progettati esclusivamente per nuocere.
Fra coltello e pistola il discorso cambia. E tu metti tutto insieme.
La distinzione fra questione "tecnica" e questione "politica" è infondata: la tecnologia è un proseguimento della politica con altri mezzi.
Sorry. Un coltello è fatto per tagliare (tecnica). Cosa poi ci tagli è una scelta (politica, nel discorso che si stava facendo). Se costruisci un coltello da caccia, oppure da guerra, o come si diceva una pistola, solo allora il tema diventa congiunto. Ma è quando ti raccontano una balla, il vero problema. Non quando vedi una mannaia (o una pistola), che sei sicuro che ti conviene tagliare la corda.
E questo è vero per la ruota, per la vela, per la radio, per la tv, per internet etc.
Tanto per prenderne una, Internet doveva diventare uno strumento di libertà, e sta diventando ben altro, in certi ambiti. E, dal punto di vista tecnico, non ha nulla dentro di "intrinsecamente costruito" per fottere la gente.
Gli LLM non sono paragonabili ad un coltello o un martello, ma ad una bomba atomica.
Affermazione che mi lascia freddo. Un LLM è una tecnologia che si vede da lontano quanto è scolastica, ma in questo (ovvero a livello informativo) può essere utile. Se poi qualcuno ti manipola, io sinceramente non ci vedo un pregresso tecnico a tale scopo, se non la legittima, anche se un po' troppo pressante, intenzione del venditore ti piazzarti in casa il prodotto (cosa che vale anche per le zucchine al mercato).
[Gli LLM] sono utili ad alienare le persone. Ad abbassarne i salari. A diffondere disinformazione senza risponderne. (...)
Questo è L'USO (politico) del coltello per sbudellare. Appunto. Però ci puoi fare altro. E i limiti (tecnici) sono di tutt'altro genere.
Sono insomma utilissimi a chi li programma.
Questo è il legittimo desiderio del produttore di vendere (che può diventare invasivo anche rimanendo legittimo).
Ma essendo ottimizzati per superare il test di Turing (ovvero per ingannare esseri umani) possono solo essere usati da chi voglia ingannare esseri umani.
Beh, chi fa ricerca in AI può anche essere desideroso di utilizzarla in ambiti predatori... MA ANCHE NO. E il problema rimangono le intenzioni, non il contenuto tecnico. Sei stato confusionario (forse volutamente), non "chiaro". Hai provato a manipolare il discorso... (sembrava un proclama). Se volevi dimostrare che si può fare, ci sei riuscito. Ma non devi incrociare qualcuno che ti sgami da subito. Saluti. ----- Original Message ----- From: Giacomo Tesio To: Alfredo Bregni ; nexa@server-nexa.polito.it ; maurizio lana Sent: Tuesday, January 07, 2025 6:15 PM Subject: Re: [nexa] In a mirror Ciao Maurizio e Alfredo. Scusatemi, non era mia intenzione essere in alcun modo laconico, ma credevo che le domande fossero chiare abbastanza. L'argomento degli "strumenti neutrali" che possono essere utili per fare del bene o del male si scontra con la realtà di innumerevoli strumenti progettati esclusivamente per nuocere. La distinzione fra questione "tecnica" e questione "politica" è infondata: la tecnologia è un proseguimento della politica con altri mezzi. E questo è vero per la ruota, per la vela, per la radio, per la tv, per internet etc.. Gli LLM non sono paragonabili ad un coltello o un martello, ma ad una bomba atomica. In un altro thread, Alberto citava un articolo (che devo ancora leggere) in cui si chiedeva ai critici dei LLM di proporre utilizzi costruttivi. La richiesta stessa presuppone una critica miope e superficiale. Certo che gli LLM sono utili! Per esempio sono utilissimi a Microsoft, Google e Amazon per vendere servizi cloud. Sono utili ad alienare le persone. Ad abbassarne i salari. A diffondere disinformazione senza risponderne. Sono utili a esfiltrare segreti industriali dalle aziende che ne permettono l'uso ai dipendenti. Sono utili a violare i diritti altrui, siano commerciali (copyright) o fondamentali (protezione dei dati personali, onorabilità etc...) Sono insomma utilissimi a chi li programma. Ma essendo ottimizzati per superare il test di Turing (ovvero per ingannare esseri umani) possono solo essere usati da chi voglia ingannare esseri umani. E in quest'ambito sono utilissimi! :-D Come una bomba in un ufficio bancario, insomma. È utilissima, per chi vuole liberarsi dei sopravvissuti a una rapina. Eccetto che per i sopravvissuti. Spero di essere stato più chiaro. Giacomo Il 7 Gennaio 2025 16:34:15 UTC, Alfredo Bregni <abregni@iperv.it> ha scritto:
Ciao Maurizio.
Scusa, ma sono di parere diverso.
Ci sono temi tecnici e politici, che stanno su piani diversi: - E' "tecnico" il tema se uno strumento va bene per qualche cosa; - E' "politico" il tema di usare per un certo scopo strumenti nati per uno scopo diverso.
Nel tuo testo, i due piani (a me) appaiono ...confusi.
A presto, A
----- Original Message ----- From: maurizio lana To: nexa@server-nexa.polito.it Sent: Tuesday, January 07, 2025 4:57 PM Subject: Re: [nexa] In a mirror
a me pare che la questione in gioco sia leggermente diversa: quali strumenti si usano per quali scopi. cioè non solo il fatto che i sistemi di IA siano sempre strumenti che qualcuno usa per uno scopo (di qui la responsabilità di chi usa lo strumento); ma che per ogni scopo c'è uno strumento adatto/appropriato. e per molti scopi ai quali li si vorrebbe destinare i sistemi di IA comunque non sono adatti: come usare un kalashnikov per macellare un manzo.
(Giacomo a volte tendi ad uno stile di scrittura conciso/oscuro :-))) Maurizio
Il 07/01/25 16:46, Alfredo Bregni ha scritto:
Ti sei perso per strada il contesto: - Si parlava di AI, con le solite critiche e timori (NON tecnici); - Io l'ho paragonata a un coltello (e ho detto che il problema sta in chi tiene il manico).
SE avessimo parlato di virus (informatici), magari allora avresti correttamente introdotto il tema Kalašnikov...
E' diverso il caso di prodotti il cui intendimento è nuocere, da quelli "virati" al nuocere da parte di qualcuno (che poi è lo stesso che cerca i prodotti fatti per nuocere fin dall'inizio). E QUESTO io lo considero il problema fondamentale: la presenza di predatori / sfruttatori / manipolatori, ...che sono in grado di manipolarti anche con una caramella (NON esplosiva).
Aloha.
----- Original Message ----- From: Giacomo Tesio To: Alfredo Bregni ; nexa@server-nexa.polito.it Sent: Tuesday, January 07, 2025 12:18 PM Subject: Re: [nexa] In a mirror
Ciao Alfredo,
grazie per la tua riflessione, che mi ha suggerito alcune domande
Il 6 Gennaio 2025 21:38:21 UTC, Alfredo Bregni <abregni@iperv.it> ha scritto: > > Se con un coltello Tizio taglia la carne di manzo e Caio sbudella qualcuno, > il problema sta dalla parte di chi tiene il manico e non dalla parte della lama.
Ma Tizio ha mai provato a macellare il manzo con un Kalašnikov? E con una bomba atomica?
Tu ci hai mai provato?
Se sì, come è andata? Se no, perché?
Giacomo
------------------------------------------------------------------------------
lo straniero non parla e non capisce la nostra lingua, che non è più nostra, perché la nostra vera lingua diventa la traduzione, lo scambio luca ferrieri, dalla public library all’open library ------------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Mi spiace Alfredo per averti dato l'impressione di volerla buttare in caciara, ti assicuro che credevo le mie parole fossero chiare e persino autoevidenti, ovvie... tanto da temere di annoiare la lista. Riproviamo. A quanto ho capito del tuo ragionamento, tu fai due affermazioni distinte, che ritieni entrambe vere: 1. La tecnologia è neutrale, tutto dipende dall'uso che se ne fa. 2. Gli LLM sono neutrali, dunque tutto dipende dall'uso che se ne fa. Io ritengo entrambe le affermazioni false, ovvero non rispondenti alla realtà. Permettimi di (ri)spiegarti il perché. # La tecnologia nel suo complesso non è MAI neutrale La prima affermazione è facile da falsificare per costruzione: è sufficiente elencare le diverse tecnologie progettate esplicitamente per nuocere, dalla mina antiuomo alla bomba atomica. Se riduciamo l'affermazione a "esistono anche tecnologie neutrali", dimostrarlo diventa davvero difficile: tutte le tecnologie menzionate (e tanto più quelle più complesse) sono politicamente orientate. Internet è sin dalla sua ideazione un'arma, progettata per garantire l'esecuzione di un controattacco nucleare durante la guerra fredda. Si è poi evoluta in un diverso tipo di arma, molto più offensiva [1]. Anche un coltello può essere progettato per essere usato esclusivamente a tavola per tagliare la cotoletta di pollo o per tagliare un tiramisù. Può ad esempio essere progettato per spezzarsi se sottoposto ad una minima pressione lungo l'asse di impugnatura, rendendolo inutilizzabile per accoltellare chicchessia pur essendo ottimo per tagliare la carne lungo la lama. Per contro, un coltello militare può essere progettato per lacerare i tessuti, producendo codette interne per un più rapido dissanguamento del nemico. Dunque, anche se possiamo usare la nostra fantasia per immaginare un coltello veramente neutrale [2], ogni coltello _reale_ facilita o impedisce determinati usi, avendo effetti politici concreti. # I LLM NON sono neutrali. Per tornare alla questione sollevata dalla Professoressa Vallor, sebbene esistano molti usi potenzialmente utili per le tecniche di programmazione statistica adottate anche per realizzare le "AI generative" (di cui gli LLM di cui parliamo sono un esempio), queste tecnologie sono intrinsecamente e fondativamente politicamente orientate. Lo sono sin dalla loro ideazione e progettazione, laddove i progettisti hanno come obiettivo minimo superare il test di Turing. Il test di Turing consiste, temo urga ricordarlo anche qui, nell'ingannare uno o più esseri umani sulla natura della sorgente dei dati sottoposti, spingendo le vittime ad attribuirli _erroneamente_ ad un essere umano. I creatori di un LLM conversazionale vincono questo "imitation game" se persone ignare attribuiscono intelligenza al loro software, e questi software sono progettati e continuamente ottimizzati esattamente per questo obiettivo. Obiettivo che è estremamente specifico: ingannare esseri umani affinché confondano la macchina con un altro essere umano. Per questa semplice ragione, le "AI generative" (e gli LLM di cui parliamo in particolare) possono essere usate SOLO per ingannare esseri umani. Perché è la loro ragion d'essere, l'obiettivo per cui sono ottimizzate a costo di miliardi di dollari ed enormi quantità di energia. Prendiamo, di nuovo (mi scuserà Guido, ma è veramente un fantastico esempio di pessimo uso di un LLM che può apparire ragionevole all'utente ignorante ormai succube della propaganda), il "riassuntino" che un LLM ha fatto del discorso della Professoressa Vallor. [3] Omette completamente aspetti fondamentali della metafora che propone su cui la Professoressa si era giustamente soffermata a lungo, riducendola ad affermazione ovvia, quanto trita e ritrita, sulle AI che amplificano e distorcono i dati umani da cui derivano. La Professoressa ha detto altro! Ha usato una metafora abbastanza attinente da un punto di vista tecnico per spiegare _come_ e _perché_ i software programmati statisticamente elaborano i dati in input e quelli sorgente compressi al proprio interno. E questa è solo una delle omissioni e banalizzazioni che l'output del LLM ha effettuato. Non ultima (guarda caso) l'omessa esclusione delle "AI generative" dalle tecnologie che potrebbero essere impiegate in modo socialmente utile. Eppure Guido, in assoluta buona fede, l'ha proposto come "sintesi dell'intervento". Ingannato sulla natura di quell'output, non prodotto da una mente intelligente che abbia compreso l'intervento, ha perpetuato l'inganno a sua volta sulla lista. Se fossimo su twitter, la chiameresti misinformazione. Se Guido fosse russo, la chiameresti disinformazione. :-D Guido stesso, in retrospettiva, potrebbe riconoscere di aver provato ad ingannare sé stesso sul tempo necessario a partecipare al dibattito in cui si inserisce il libro / intervento della Professoressa Vallor [4]. Ma tutti ricondurrebbero la responsabilità a Guido (vittima inconsapevole che arriva a difendere i propri carnefici [5]) o, al massimo, al software che ha "sfortunatamente" prodotto l'output "errato". Dovremmo invece ricondurla a coloro che hanno programmato quel software per ingannare Guido sulla sua abilità di comprendere un testo e produrne una "sintesi". Sia che ciò avvenga per ragioni economiche o politiche. (che poi... anche l'economia è politica...) Più in generale, una tecnologia progettata e realizzate per ingannare le persone può essere utilizzata _solo_ per ingannare persone. E' letteralmente un'arma. Il fatto che persone lontanissime dall'idea di rivolgere un'arma controllata da terzi contro sé stessi, la puntino quotidianamente alla propria testa, dovrebbe rendere evidente la sua potenza e pericolosità. Inoltre, paragonare tecnologie semplici come un coltello o un martello ad un LLM è sbagliato anche per il semplice fatto che costo e complessità realizzativa determinano una barriera all'ingresso tale da determinare intrinsecamente un orientamento politico: solo un élite molto ricca può permettersi di provare a costruirli, e lo farà solo se vi intravede un'utilità per sé nettamente superiore ai rischi. Per queste ragioni, ritengo che le affermazioni 1 e 2 siano false. Sono d'accordo che gli intenti "predatori" di molti esseri umani sono socialmente dannosi e vadano contenuti. E sono anche d'accordo che tali intenti siano alla base di molti dei problemi di cui discutiamo speso in questa lista. Tanto d'accordo che ho provato a spiegarti COME tali intenti siano fondativi e costituenti degli LLM, così come di molte altre armi. La tecnologia, spero di averti mostrato, è _sempre_ una espressione umana politicamente orientata, intrinsecamente, ancora prima che venga effettivamente utilizzata. Gli LLM conversazionali esistono per ingannare le menti, esattamente come le mine antiuomo esistono per uccidere e mutilare i corpi. Non possono essere usate per niente altro. E sono talmente efficaci nell'ingannare e nell'alienare l'uomo, che molte persone (anche colte e intelligenti) finiscono per credersi e dichiararsi poco diverse da questi software. Allo stesso modo possiamo creare software emancipatori e socialmente utili. Io ci provo da tempo [6] sebbene sia una lotta impari. Spero vivamente di essere stato finalmente più chiaro (di certo Maurizio, non sono stato conciso :-D), ma nel caso aveste ulteriori dubbi, forse potremmo continuare in privato per non tediare la lista. Giacomo [1] https://encrypted.tesio.it/2018/07/31/the-web-is-still-a-darpa-weapon.html i sono stati (e vi sono) diversi tentativi di rimuoverne (o mitigarne) gli aspetti offensivi e militari, ma sono troppo deboli. Si potrebbe dire che, di fatto, è come se stessimo conversando amabilmente in una piazza cosparsa di mine antiuomo, sforzandoci di non guardarle, di ignorare chi le indica e persino di arrestare chi prova a rimuoverle. [2] Ah se esistessero coltelli da cucina VERAMENTE NEUTRALI! Coltelli da cucina automaticamente impegnati a mantenere l'equilibrio fra bene e male! Quanti miliardari in meno! :-D https://assortedmeeples.com/true-neutral-dnd-alignment-guide [3] Per chi volesse rileggerlo: https://server-nexa.polito.it/pipermail/nexa/2025-January/053758.html [4] come, in fondo, ha delicatamente provato a fargli notare Alberto https://server-nexa.polito.it/pipermail/nexa/2025-January/053759.html [5] "Ebbene: un riassunto-traduzione come quello che ChatGPT ha fatto del transcript della Prof. Vallor qualche anno fa ce lo sognavamo, credimi." https://server-nexa.polito.it/pipermail/nexa/2025-January/053770.html NOTE to SELF: "approfondire cosa bevessero/mangiassero prima di andare a dormire, che nemmeno l'impepata di cozze..." :-D [6] https://jehanne.h--k.it/ https://monitora-pa.it/ https://code.tesio.it/p/self-hosting/doh.cgi/file?name=POLITICS.txt&ci=tip https://monitora-pa.it/LICENSE.txt
Eppure Guido, in assoluta buona fede, l'ha proposto come "sintesi dell'intervento". Ingannato sulla natura di quell'output, non prodotto da una mente intelligente che abbia compreso l'intervento, ha perpetuato l'inganno a sua volta sulla lista.
preferisco essere considerato un bieco agente delle multinazionali piuttosto che un cretino che non ha capito con cosa ha a che fare :-) cheers, G. On Wed, 8 Jan 2025 at 12:26, Giacomo Tesio <giacomo@tesio.it> wrote:
Mi spiace Alfredo per averti dato l'impressione di volerla buttare in caciara, ti assicuro che credevo le mie parole fossero chiare e persino autoevidenti, ovvie... tanto da temere di annoiare la lista.
Riproviamo.
A quanto ho capito del tuo ragionamento, tu fai due affermazioni distinte, che ritieni entrambe vere:
1. La tecnologia è neutrale, tutto dipende dall'uso che se ne fa. 2. Gli LLM sono neutrali, dunque tutto dipende dall'uso che se ne fa.
Io ritengo entrambe le affermazioni false, ovvero non rispondenti alla realtà. Permettimi di (ri)spiegarti il perché.
# La tecnologia nel suo complesso non è MAI neutrale
La prima affermazione è facile da falsificare per costruzione: è sufficiente elencare le diverse tecnologie progettate esplicitamente per nuocere, dalla mina antiuomo alla bomba atomica.
Se riduciamo l'affermazione a "esistono anche tecnologie neutrali", dimostrarlo diventa davvero difficile: tutte le tecnologie menzionate (e tanto più quelle più complesse) sono politicamente orientate.
Internet è sin dalla sua ideazione un'arma, progettata per garantire l'esecuzione di un controattacco nucleare durante la guerra fredda. Si è poi evoluta in un diverso tipo di arma, molto più offensiva [1].
Anche un coltello può essere progettato per essere usato esclusivamente a tavola per tagliare la cotoletta di pollo o per tagliare un tiramisù. Può ad esempio essere progettato per spezzarsi se sottoposto ad una minima pressione lungo l'asse di impugnatura, rendendolo inutilizzabile per accoltellare chicchessia pur essendo ottimo per tagliare la carne lungo la lama.
Per contro, un coltello militare può essere progettato per lacerare i tessuti, producendo codette interne per un più rapido dissanguamento del nemico.
Dunque, anche se possiamo usare la nostra fantasia per immaginare un coltello veramente neutrale [2], ogni coltello _reale_ facilita o impedisce determinati usi, avendo effetti politici concreti.
# I LLM NON sono neutrali.
Per tornare alla questione sollevata dalla Professoressa Vallor, sebbene esistano molti usi potenzialmente utili per le tecniche di programmazione statistica adottate anche per realizzare le "AI generative" (di cui gli LLM di cui parliamo sono un esempio), queste tecnologie sono intrinsecamente e fondativamente politicamente orientate.
Lo sono sin dalla loro ideazione e progettazione, laddove i progettisti hanno come obiettivo minimo superare il test di Turing.
Il test di Turing consiste, temo urga ricordarlo anche qui, nell'ingannare uno o più esseri umani sulla natura della sorgente dei dati sottoposti, spingendo le vittime ad attribuirli _erroneamente_ ad un essere umano.
I creatori di un LLM conversazionale vincono questo "imitation game" se persone ignare attribuiscono intelligenza al loro software, e questi software sono progettati e continuamente ottimizzati esattamente per questo obiettivo.
Obiettivo che è estremamente specifico: ingannare esseri umani affinché confondano la macchina con un altro essere umano.
Per questa semplice ragione, le "AI generative" (e gli LLM di cui parliamo in particolare) possono essere usate SOLO per ingannare esseri umani.
Perché è la loro ragion d'essere, l'obiettivo per cui sono ottimizzate a costo di miliardi di dollari ed enormi quantità di energia.
Prendiamo, di nuovo (mi scuserà Guido, ma è veramente un fantastico esempio di pessimo uso di un LLM che può apparire ragionevole all'utente ignorante ormai succube della propaganda), il "riassuntino" che un LLM ha fatto del discorso della Professoressa Vallor. [3]
Omette completamente aspetti fondamentali della metafora che propone su cui la Professoressa si era giustamente soffermata a lungo, riducendola ad affermazione ovvia, quanto trita e ritrita, sulle AI che amplificano e distorcono i dati umani da cui derivano.
La Professoressa ha detto altro!
Ha usato una metafora abbastanza attinente da un punto di vista tecnico per spiegare _come_ e _perché_ i software programmati statisticamente elaborano i dati in input e quelli sorgente compressi al proprio interno.
E questa è solo una delle omissioni e banalizzazioni che l'output del LLM ha effettuato. Non ultima (guarda caso) l'omessa esclusione delle "AI generative" dalle tecnologie che potrebbero essere impiegate in modo socialmente utile.
Eppure Guido, in assoluta buona fede, l'ha proposto come "sintesi dell'intervento". Ingannato sulla natura di quell'output, non prodotto da una mente intelligente che abbia compreso l'intervento, ha perpetuato l'inganno a sua volta sulla lista.
Se fossimo su twitter, la chiameresti misinformazione. Se Guido fosse russo, la chiameresti disinformazione. :-D
Guido stesso, in retrospettiva, potrebbe riconoscere di aver provato ad ingannare sé stesso sul tempo necessario a partecipare al dibattito in cui si inserisce il libro / intervento della Professoressa Vallor [4].
Ma tutti ricondurrebbero la responsabilità a Guido (vittima inconsapevole che arriva a difendere i propri carnefici [5]) o, al massimo, al software che ha "sfortunatamente" prodotto l'output "errato". Dovremmo invece ricondurla a coloro che hanno programmato quel software per ingannare Guido sulla sua abilità di comprendere un testo e produrne una "sintesi".
Sia che ciò avvenga per ragioni economiche o politiche. (che poi... anche l'economia è politica...)
Più in generale, una tecnologia progettata e realizzate per ingannare le persone può essere utilizzata _solo_ per ingannare persone.
E' letteralmente un'arma.
Il fatto che persone lontanissime dall'idea di rivolgere un'arma controllata da terzi contro sé stessi, la puntino quotidianamente alla propria testa, dovrebbe rendere evidente la sua potenza e pericolosità.
Inoltre, paragonare tecnologie semplici come un coltello o un martello ad un LLM è sbagliato anche per il semplice fatto che costo e complessità realizzativa determinano una barriera all'ingresso tale da determinare intrinsecamente un orientamento politico: solo un élite molto ricca può permettersi di provare a costruirli, e lo farà solo se vi intravede un'utilità per sé nettamente superiore ai rischi.
Per queste ragioni, ritengo che le affermazioni 1 e 2 siano false.
Sono d'accordo che gli intenti "predatori" di molti esseri umani sono socialmente dannosi e vadano contenuti.
E sono anche d'accordo che tali intenti siano alla base di molti dei problemi di cui discutiamo speso in questa lista.
Tanto d'accordo che ho provato a spiegarti COME tali intenti siano fondativi e costituenti degli LLM, così come di molte altre armi.
La tecnologia, spero di averti mostrato, è _sempre_ una espressione umana politicamente orientata, intrinsecamente, ancora prima che venga effettivamente utilizzata.
Gli LLM conversazionali esistono per ingannare le menti, esattamente come le mine antiuomo esistono per uccidere e mutilare i corpi.
Non possono essere usate per niente altro.
E sono talmente efficaci nell'ingannare e nell'alienare l'uomo, che molte persone (anche colte e intelligenti) finiscono per credersi e dichiararsi poco diverse da questi software.
Allo stesso modo possiamo creare software emancipatori e socialmente utili. Io ci provo da tempo [6] sebbene sia una lotta impari.
Spero vivamente di essere stato finalmente più chiaro (di certo Maurizio, non sono stato conciso :-D), ma nel caso aveste ulteriori dubbi, forse potremmo continuare in privato per non tediare la lista.
Giacomo
[1] https://encrypted.tesio.it/2018/07/31/the-web-is-still-a-darpa-weapon.html i sono stati (e vi sono) diversi tentativi di rimuoverne (o mitigarne) gli aspetti offensivi e militari, ma sono troppo deboli.
Si potrebbe dire che, di fatto, è come se stessimo conversando amabilmente in una piazza cosparsa di mine antiuomo, sforzandoci di non guardarle, di ignorare chi le indica e persino di arrestare chi prova a rimuoverle.
[2] Ah se esistessero coltelli da cucina VERAMENTE NEUTRALI! Coltelli da cucina automaticamente impegnati a mantenere l'equilibrio fra bene e male! Quanti miliardari in meno! :-D https://assortedmeeples.com/true-neutral-dnd-alignment-guide
[3] Per chi volesse rileggerlo: https://server-nexa.polito.it/pipermail/nexa/2025-January/053758.html
[4] come, in fondo, ha delicatamente provato a fargli notare Alberto https://server-nexa.polito.it/pipermail/nexa/2025-January/053759.html
[5] "Ebbene: un riassunto-traduzione come quello che ChatGPT ha fatto del transcript della Prof. Vallor qualche anno fa ce lo sognavamo, credimi." https://server-nexa.polito.it/pipermail/nexa/2025-January/053770.html
NOTE to SELF: "approfondire cosa bevessero/mangiassero prima di andare a dormire, che nemmeno l'impepata di cozze..." :-D
[6] https://jehanne.h--k.it/ https://monitora-pa.it/
https://code.tesio.it/p/self-hosting/doh.cgi/file?name=POLITICS.txt&ci=tip https://monitora-pa.it/LICENSE.txt
Certo Guido, Il 8 Gennaio 2025 14:04:12 UTC, Guido Vetere <vetere.guido@gmail.com> ha scritto:
Eppure Guido, in assoluta buona fede, l'ha proposto come "sintesi dell'intervento". Ingannato sulla natura di quell'output, non prodotto da una mente intelligente che abbia compreso l'intervento, ha perpetuato l'inganno a sua volta sulla lista.
preferisco essere considerato un bieco agente delle multinazionali piuttosto che un cretino che non ha capito con cosa ha a che fare :-)
come preferisci! :-D L'autoironia purtroppo non rende meno tragica la profondità dell'inganno che subisci, tanto da riferirti a ChatGPT come "chi-sai-tu" o "chi-sapete-voi". E sì, sono d'accordo che sia Voldemort che l'intelligenza artificiale appartengono al regno della fantasia! Ma Voldemort era una persona. ChatGPT è solo un software programmato statisticamente per ingannarti. Non un "chi", dunque, ma un "cosa". Checché ne dica, ormai, il tuo subconscio. Giacomo
Ciao, Giacomo. Riproviamo: 1.
La tecnologia è neutrale, tutto dipende dall'uso che se ne fa.
La tecnologia non è "una": - La tecnologia neutrale è neutrale, ecc., quindi sì; - La tecnologia "di guerra", ...ha già l'uso definito fin dal'inizio (e non c'è inganno). 2.
Gli LLM sono neutrali, dunque tutto dipende dall'uso che se ne fa.
Non ritengo che siano "di guerra" (o, almeno, non concepiti come tali; correggimi se sbaglio), quindi sì. [Dal seguito, vedo che li consideri veramente pericolosi, ma ritengo che sia una percezione ...gonfiata.] 3.
La tecnologia nel suo complesso non è MAI neutrale
NON puoi dire che NON sia neutrale la tecnologia del bastone per il vecchietto, che può essere usato anche per malmenare il medesimo... Se fai l'esempio della mina antiuomo e della bomba atomica, parti da premessa di parte, e quindi sbagliata (si chiama ragionamento "circolare"; lo fanno ad es. i credenti). 4.
La prima affermazione è facile da falsificare per costruzione: è sufficiente elencare le diverse tecnologie progettate esplicitamente per nuocere, dalla mina antiuomo alla bomba atomica.
La tecnologia "di guerra" sappiamo che esiste; ma non puoi estendere l'affermazione a tutta la tecnologia. La locuzione "tecnologia nel suo complesso" è volutamente ingannevole (a cominciare da te stesso...), perché ti permette di fare l'esempio che conviene a te, deviando / deragliando dal discorso che si faceva. 5.
Se riduciamo l'affermazione a "esistono anche tecnologie neutrali", dimostrarlo diventa davvero difficile: tutte le tecnologie menzionate (e tanto più quelle più complesse) sono politicamente orientate.
Posso essere d'accordo che le tecnologie più complesse non nascano nel giardino di casa (anche se ci sono esempi di garage...), ovvero che ci siano di frequente grossi interessi in ballo fin dall'inizio, ma -- di nuovo -- c'è l'interesse del venditore e quello del predatore, e non sono la medesima cosa. E tutto il mio discorso verteva sul fatto che il progresso tecnologico (sottinteso "positivo") può essere girato a vantaggio (predatorio) di qualcuno, e anzi che la cosa avviene praticamente sempre, anche quando la tecnologia nasce neutrale (cfr. l'esempio del bastone del vecchietto). 6.
Io affermo soltanto:
Internet è sin dalla sua ideazione un'arma, progettata per garantire l'esecuzione di un contrattacco nucleare durante la guerra fredda. Si è poi evoluta in un diverso tipo di arma, molto più offensiva. Internet è nata (in ambito militare perché lì ci sono i soldi) per costruire una rete "resiliente" (che serve anche per i disastri naturali, oltre che per aspetti militari). E il web è nato con fini non militari (ed è il web che viene usato "male"; la rete di base è veramente neutra, ...salvo quando il venditore se ne approfitta). 7.
Anche un coltello può essere progettato per essere usato esclusivamente a tavola per tagliare la cotoletta di pollo o per tagliare un tiramisù.
Può ad esempio essere progettato per spezzarsi se sottoposto ad una minima pressione lungo l'asse di impugnatura, rendendolo inutilizzabile per accoltellare chicchessia pur essendo ottimo per tagliare la carne lungo la lama. Se fai così, a parte il costo, poi non lo puoi usare per svitare una vite... Il coltello è uno strumento multiuso. 8.
Per contro, un coltello militare può essere progettato per lacerare i tessuti, producendo codette interne per un più rapido dissanguamento del nemico.
Qui niente da dire. MA SI VEDE: non c'è l'inganno predatorio di farti vedere il coltello da pasto, e poi tagliarti la gola. Sai perché i mancini erano così odiati, in passato? Perché ti salutavano con la destra, a mostrare che erano disarmati, e ti infilavano un pugnale in pancia usando la sinistra. Il punto non era portare il pugnale, era l'inganno di tenerlo con l'altra mano rispetto a quella che porgeva il saluto. 9.
Dunque, anche se possiamo usare la nostra fantasia per immaginare un coltello veramente neutrale, ogni coltello reale facilita o impedisce determinati usi, avendo effetti politici concreti.
Un coltello reale "permette" altri usi (e la cosa è positiva); e la malvagità non sta mai nel coltello, quando l'uso è malvagio. 10.
I LLM NON sono neutrali.
Per tornare alla questione sollevata dalla Professoressa Vallor, sebbene esistano molti usi potenzialmente utili per le tecniche di programmazione statistica adottate anche per realizzare le "AI generative" (di cui gli LLM di cui parliamo sono un esempio), queste tecnologie sono intrinsecamente e fondativamente politicamente orientate. Lo sono sin dalla loro ideazione e progettazione, laddove i progettisti hanno come obiettivo minimo superare il test di Turing. Superare il test di Turing è un legittimo obiettivo scientifico. Però inganni più il sempliciotto che non altri (e, se al posto del termine "ingannare", usi "sembrare a", sappi che c'è un intero libro che spiega in dettaglio come costruire una macchina che "appaia" come cosciente, ...come se apparirlo fosse un valido risultato, il che ritengo non sia). 11.
Il test di Turing consiste, temo urga ricordarlo anche qui, nell'ingannare uno o più esseri umani sulla natura della sorgente dei dati sottoposti, spingendo le vittime ad attribuirli erroneamente ad un essere umano.
V. sopra. 12.
I creatori di un LLM conversazionale vincono questo "imitation game" se persone ignare attribuiscono intelligenza al loro software, e questi software sono progettati e continuamente ottimizzati esattamente per questo obiettivo.
I creatori di un LLM adottano per "l'intelligenza" una "scorciatoia statistica", ingannando per primi se stessi (parlo di scienza / tecnologia); POI, qualcuno trova interessante ingannare NON in termini scientifici, ma di altro genere. E si torna al punto di partenza. La scienza -- come conoscenza -- è sempre buona in sé (sapere di più è meglio di sapere di meno); peccato che sapere di più da parte di certa gente possa diventare un serio pericolo per altri. Si tratta di una problematica di fondo molto seria, ...ma non diamone la colpa al coltello. Se anche fosse un problema generale, ovvero se tutta la scienza / tecnologia nascondesse un pericolo (che di fatto nasconde, in presenza di predatori), di certo non potremmo spegnere i cervelli di quei pochi che ancora lo usano... 13.
Obiettivo che è estremamente specifico: ingannare esseri umani affinché confondano la macchina con un altro essere umano.
Tu ci vedi una malignità che io non ci vedo. DI CERTO, mi serve che forniscano un prodotto simile a quello di un umano (e per i sempliciotti è così), perché altrimenti funzionerebbe come le vecchie traduzioni automatiche, che dovevi rieditare perché grossolane. 14.
Per questa semplice ragione, le "AI generative" (e gli LLM di cui parliamo in particolare) possono essere usate SOLO per ingannare esseri umani.
Se scrivi "sembrare a" gli togli quell'aura di malignità che fa solo gioco al tuo discorso, senza essere vera in origine. 15.
Perché è la loro ragion d'essere, l'obiettivo per cui sono ottimizzate a costo di miliardi di dollari ed enormi quantità di energia.
C'è un grosso valore economico nell'ottenere risultati automatici (pensa a uno spreadsheet); in questo caso "l'inganno originario" sta nella natura del prodotto, ma se l'inganno sia benigno o maligno non viene da come è fatto il prodotto, ma per che cosa e come lo usi. 16.
Prendiamo, di nuovo (...) il "riassuntino" che un LLM ha fatto del discorso della Professoressa Vallor.
Omette completamente aspetti fondamentali della metafora che propone su cui la Professoressa si era giustamente soffermata a lungo (omissis). Eppure Guido, in assoluta buona fede, l'ha proposto come "sintesi dell'intervento". Ingannato sulla natura di quell'output, non prodotto da una mente intelligente che abbia compreso l'intervento, ha perpetuato l'inganno a sua volta sulla lista. Qui c'è da dire innanzitutto che l'inganno NON era affatto voluto. Ovvero che non stiamo parlando del problema "politico". Qui stiamo parlando ancora della "tecnica imperfetta" che non ha ingannato chi conosce il problema, e ha ingannato qualcun altro. ACCADE sempre, nel mondo del commercio. E qui, non è neanche un inganno per far male o danni, ma semplicemente un'imperfezione tecnica che qualcuno nota e qualcuno no. Ovvero,stai tirando il ragionamento per la giacchetta dove non c'entra ("inconferente", direbbero i legulei). Devi stare attento, con il linguaggio... (pensa che una tonnellata di filosofi ebeti hanno discusso per millenni di nulla / non-essere, dimenticando che la negazione appartiene solo ai linguaggi, e non all'ontologia -- "non gatto" ha senso insiemistica e tassonomia biologica, non nella realtà -- quando l'ambito del discorso era proprio ...l'ontologia). C'è ingannare e ingannare; da "sembrare a" a "fottere". E NON sono la stessa cosa... 17.
Se fossimo su twitter, la chiameresti misinformazione.
Se Guido fosse russo, la chiameresti disinformazione. Guido stesso, in retrospettiva, potrebbe riconoscere di aver provato ad ingannare sé stesso sul tempo necessario a partecipare al dibattito in cui si inserisce il libro / intervento della Professoressa Vallor. A me sembra solo overlooking (e magari aveva ragione Guido -- de minimis non curat praetor -- se "l'inganno" era della Vallor che dimenticava il tema socio-predatorio per fare un bel discorsino tecnico; qui sono io che la butto in caciara, perché non ho guardato il video). Ci sono discorsi importantissimi in letteratura, o in seghine mentali scientifiche, che poi all'atto pratico contano ben poco. 18.
Ma tutti ricondurrebbero la responsabilità a Guido (vittima inconsapevole che arriva a difendere i propri carnefici) o, al massimo, al software che ha "sfortunatamente" prodotto l'output "errato".
Dovremmo invece ricondurla a coloro che hanno programmato quel software per ingannare Guido sulla sua abilità di comprendere un testo e produrne una "sintesi". V. sopra. Stai facendo di un termitaio una piramide egizia. 19.
Sia che ciò avvenga per ragioni economiche o politiche (che poi... anche l'economia è politica...).
Economia e politica, nel discorso che facevo io (predazione / sfruttamento / manipolazione) sono la stessa faccia della stessa medaglia (l'altra faccia essendo la scienza / tecnologia). La distinzione fondamentale fra "strumento" e "uso" (che solo in casi specifici -- bomba atomica -- coincidono; poi, anche per la bomba c'è stato l'utilizzo "deterrente" per evitare di usarla, che è un po' l'esempio duale di quanto sostengo). 20.
Più in generale, una tecnologia progettata e realizzate per ingannare le persone può essere utilizzata solo per ingannare persone.
V. il discorso sulla parola "ingannare". Non fare sillogismi sul "non-essere", senza pensare alle alternative semantiche in campo (alcune e diverse per "ingannare", solo semantica nulla per il il non-essere). 21.
E' letteralmente un'arma.
Fai gli stessi sillogismi di certa gente sui social: o sbagliano le premesse, o sbagliano le inferenze, o trascurano le semantiche. Tutto hai fatto (in modo veniale); tutti e tre gli errori; ma c'è gente (cfr. i filosofi ebeti di cui sopra) che gli errori li fa ...monumentali. Qualche volta c'è solo un "errore" (V. Guido), non un "inganno". E magari è stato meglio il suo errore che non l'inzuccarsi tanto sul discorso della Vallor. 22.
Il fatto che persone lontanissime dall'idea di rivolgere un'arma controllata da terzi contro sé stessi, la puntino quotidianamente alla propria testa, dovrebbe rendere evidente la sua potenza e pericolosità.
Out of the blue ...cosa? Che ci sono imbecilli che credono alla generatività statistica? C'è gente che ha creduto alle .com, ai subprime, prima ancora ai tulipani, ancor oggi ai bitcoin. Gente che ha votato Trump o Meloni (per altri, gente che ha votato Conte e Di Maio). Ha sempre e soltanto ragione Cipolla: è lo stupido il principale problema... 23.
Inoltre, paragonare tecnologie semplici come un coltello o un martello ad un LLM è sbagliato anche per il semplice fatto che costo e complessità realizzativa determinano una barriera all'ingresso tale da determinare intrinsecamente un orientamento politico: solo un élite molto ricca può permettersi di provare a costruirli, e lo farà solo se vi intravede un'utilità per sé nettamente superiore ai rischi.
Qui entriamo nel discorso -- socio-economico-politico prima ancora di cominciare -- della ricchezza usata per incrementare ricchezza. Io, nel merito, distingui i ricchi onesti dai ricchi ladri. E mi preoccupo più della distinzione fra onesto e ladro, che non di quella fra ricco e povero. L'occasione (ricchezza) fa l'uomo ladro, ma non si tratta di un'identità (ovvero, finiscila con i proclami vetero-socialisti). 24.
Per queste ragioni, ritengo che le affermazioni 1 e 2 siano false.
E, per le mie risposte, ritengo che tu abbia distorto in vari modi i termini del tema "inganno" (che ha semantica, e anche origine, varia), quando poi in realtà il discorso verteva su predazione / sfruttamento / manipolazione, dove alla fin fine al predatore va bene qualunque strumento, per perseguire i suoi scopi (zucchine, denaro, coltelli, bombe, ...). 25.
Sono d'accordo che gli intenti "predatori" di molti esseri umani sono socialmente dannosi e vadano contenuti.
Ma va...? 26.
E sono anche d'accordo che tali intenti siano alla base di molti dei problemi di cui discutiamo speso in questa lista.
Nulla da eccepire. 27.
Tanto d'accordo che ho provato a spiegarti COME tali intenti siano fondativi e costituenti degli LLM, così come di molte altre armi.
E qui si torna a sopra. 28.
La tecnologia, spero di averti mostrato, è sempre una espressione umana politicamente orientata, intrinsecamente, ancora prima che venga effettivamente utilizzata.
Prova a spiegarlo a chi (Edward Jenner) ha inventato il vaccino, ...quanto deve essersi rivoltato nella tomba, con il Covid!! 29.
Gli LLM conversazionali esistono per ingannare le menti, esattamente come le mine antiuomo esistono per uccidere e mutilare i corpi.
V. sopra, again. 30.
Non possono essere usate per niente altro.
Io ho trovato utilissimo chatGPT per contestare un'affermazione demente, tanto quanto l'ho trovato ondivago su altri temi, scolastico in altri, ...creativo mai. E' uno strumento, e lo usi come più conviene (io mi sono rifiutato di progettare mine antiuomo, dove l'obiettivo era chiaro e senza alternative); se poi sei uno stronzo (tu generico, ovviamente), ecco che le cose girano al male. 31.
E sono talmente efficaci nell'ingannare e nell'alienare l'uomo, che molte persone (anche colte e intelligenti) finiscono per credersi e dichiararsi poco diverse da questi software.
Non solo la madre dei fessi è sempre incinta, ma anche quella dei superficiali, dei troppo semplici (anche se di essi è il regno dei cieli), dei disattenti (io ho il problema opposto: troppa gente parla come se fosse un ripetitore statistico...). 32.
Allo stesso modo possiamo creare software emancipatori e socialmente utili. Io ci provo da tempo sebbene sia una lotta impari.
Il problema è sempre il vecchio "panem et circenses" (oppure la miopia manageriale): io ho provato a liberare la democrazia soffocata da mille interferenze di questi tempi, tramite uno strumento tecnico, ma la gente non ama alzare il deretano dalla sedia e rimboccarsi le maniche per diventare libera (e lo scriveva Tocqueville già parecchi decenni fa); preferisce godere del poco che ha; non ha la "fame" di chi non ha nulla, e lotta. 33.
Spero vivamente di essere stato finalmente più chiaro (omissis)
Non ti incazzare: ...sei stato solo verboso; se ti fossi messo in concreto di fronte a uno specchio :-) avresti visto che sai girare bene i discorsi (anche troppo), ma ti lasci ingannare dalle parole. Abbracci, A ----- Original Message ----- From: Giacomo Tesio To: nexa@server-nexa.polito.it Sent: Wednesday, January 08, 2025 12:26 PM Subject: Re: [nexa] In a mirror Mi spiace Alfredo per averti dato l'impressione di volerla buttare in caciara, ti assicuro che credevo le mie parole fossero chiare e persino autoevidenti, ovvie... tanto da temere di annoiare la lista. Riproviamo. A quanto ho capito del tuo ragionamento, tu fai due affermazioni distinte, che ritieni entrambe vere: 1. La tecnologia è neutrale, tutto dipende dall'uso che se ne fa. 2. Gli LLM sono neutrali, dunque tutto dipende dall'uso che se ne fa. Io ritengo entrambe le affermazioni false, ovvero non rispondenti alla realtà. Permettimi di (ri)spiegarti il perché. # La tecnologia nel suo complesso non è MAI neutrale La prima affermazione è facile da falsificare per costruzione: è sufficiente elencare le diverse tecnologie progettate esplicitamente per nuocere, dalla mina antiuomo alla bomba atomica. Se riduciamo l'affermazione a "esistono anche tecnologie neutrali", dimostrarlo diventa davvero difficile: tutte le tecnologie menzionate (e tanto più quelle più complesse) sono politicamente orientate. Internet è sin dalla sua ideazione un'arma, progettata per garantire l'esecuzione di un controattacco nucleare durante la guerra fredda. Si è poi evoluta in un diverso tipo di arma, molto più offensiva [1]. Anche un coltello può essere progettato per essere usato esclusivamente a tavola per tagliare la cotoletta di pollo o per tagliare un tiramisù. Può ad esempio essere progettato per spezzarsi se sottoposto ad una minima pressione lungo l'asse di impugnatura, rendendolo inutilizzabile per accoltellare chicchessia pur essendo ottimo per tagliare la carne lungo la lama. Per contro, un coltello militare può essere progettato per lacerare i tessuti, producendo codette interne per un più rapido dissanguamento del nemico. Dunque, anche se possiamo usare la nostra fantasia per immaginare un coltello veramente neutrale [2], ogni coltello _reale_ facilita o impedisce determinati usi, avendo effetti politici concreti. # I LLM NON sono neutrali. Per tornare alla questione sollevata dalla Professoressa Vallor, sebbene esistano molti usi potenzialmente utili per le tecniche di programmazione statistica adottate anche per realizzare le "AI generative" (di cui gli LLM di cui parliamo sono un esempio), queste tecnologie sono intrinsecamente e fondativamente politicamente orientate. Lo sono sin dalla loro ideazione e progettazione, laddove i progettisti hanno come obiettivo minimo superare il test di Turing. Il test di Turing consiste, temo urga ricordarlo anche qui, nell'ingannare uno o più esseri umani sulla natura della sorgente dei dati sottoposti, spingendo le vittime ad attribuirli _erroneamente_ ad un essere umano. I creatori di un LLM conversazionale vincono questo "imitation game" se persone ignare attribuiscono intelligenza al loro software, e questi software sono progettati e continuamente ottimizzati esattamente per questo obiettivo. Obiettivo che è estremamente specifico: ingannare esseri umani affinché confondano la macchina con un altro essere umano. Per questa semplice ragione, le "AI generative" (e gli LLM di cui parliamo in particolare) possono essere usate SOLO per ingannare esseri umani. Perché è la loro ragion d'essere, l'obiettivo per cui sono ottimizzate a costo di miliardi di dollari ed enormi quantità di energia. Prendiamo, di nuovo (mi scuserà Guido, ma è veramente un fantastico esempio di pessimo uso di un LLM che può apparire ragionevole all'utente ignorante ormai succube della propaganda), il "riassuntino" che un LLM ha fatto del discorso della Professoressa Vallor. [3] Omette completamente aspetti fondamentali della metafora che propone su cui la Professoressa si era giustamente soffermata a lungo, riducendola ad affermazione ovvia, quanto trita e ritrita, sulle AI che amplificano e distorcono i dati umani da cui derivano. La Professoressa ha detto altro! Ha usato una metafora abbastanza attinente da un punto di vista tecnico per spiegare _come_ e _perché_ i software programmati statisticamente elaborano i dati in input e quelli sorgente compressi al proprio interno. E questa è solo una delle omissioni e banalizzazioni che l'output del LLM ha effettuato. Non ultima (guarda caso) l'omessa esclusione delle "AI generative" dalle tecnologie che potrebbero essere impiegate in modo socialmente utile. Eppure Guido, in assoluta buona fede, l'ha proposto come "sintesi dell'intervento". Ingannato sulla natura di quell'output, non prodotto da una mente intelligente che abbia compreso l'intervento, ha perpetuato l'inganno a sua volta sulla lista. Se fossimo su twitter, la chiameresti misinformazione. Se Guido fosse russo, la chiameresti disinformazione. :-D Guido stesso, in retrospettiva, potrebbe riconoscere di aver provato ad ingannare sé stesso sul tempo necessario a partecipare al dibattito in cui si inserisce il libro / intervento della Professoressa Vallor [4]. Ma tutti ricondurrebbero la responsabilità a Guido (vittima inconsapevole che arriva a difendere i propri carnefici [5]) o, al massimo, al software che ha "sfortunatamente" prodotto l'output "errato". Dovremmo invece ricondurla a coloro che hanno programmato quel software per ingannare Guido sulla sua abilità di comprendere un testo e produrne una "sintesi". Sia che ciò avvenga per ragioni economiche o politiche. (che poi... anche l'economia è politica...) Più in generale, una tecnologia progettata e realizzate per ingannare le persone può essere utilizzata _solo_ per ingannare persone. E' letteralmente un'arma. Il fatto che persone lontanissime dall'idea di rivolgere un'arma controllata da terzi contro sé stessi, la puntino quotidianamente alla propria testa, dovrebbe rendere evidente la sua potenza e pericolosità. Inoltre, paragonare tecnologie semplici come un coltello o un martello ad un LLM è sbagliato anche per il semplice fatto che costo e complessità realizzativa determinano una barriera all'ingresso tale da determinare intrinsecamente un orientamento politico: solo un élite molto ricca può permettersi di provare a costruirli, e lo farà solo se vi intravede un'utilità per sé nettamente superiore ai rischi. Per queste ragioni, ritengo che le affermazioni 1 e 2 siano false. Sono d'accordo che gli intenti "predatori" di molti esseri umani sono socialmente dannosi e vadano contenuti. E sono anche d'accordo che tali intenti siano alla base di molti dei problemi di cui discutiamo speso in questa lista. Tanto d'accordo che ho provato a spiegarti COME tali intenti siano fondativi e costituenti degli LLM, così come di molte altre armi. La tecnologia, spero di averti mostrato, è _sempre_ una espressione umana politicamente orientata, intrinsecamente, ancora prima che venga effettivamente utilizzata. Gli LLM conversazionali esistono per ingannare le menti, esattamente come le mine antiuomo esistono per uccidere e mutilare i corpi. Non possono essere usate per niente altro. E sono talmente efficaci nell'ingannare e nell'alienare l'uomo, che molte persone (anche colte e intelligenti) finiscono per credersi e dichiararsi poco diverse da questi software. Allo stesso modo possiamo creare software emancipatori e socialmente utili. Io ci provo da tempo [6] sebbene sia una lotta impari. Spero vivamente di essere stato finalmente più chiaro (di certo Maurizio, non sono stato conciso :-D), ma nel caso aveste ulteriori dubbi, forse potremmo continuare in privato per non tediare la lista. Giacomo [1] https://encrypted.tesio.it/2018/07/31/the-web-is-still-a-darpa-weapon.html i sono stati (e vi sono) diversi tentativi di rimuoverne (o mitigarne) gli aspetti offensivi e militari, ma sono troppo deboli. Si potrebbe dire che, di fatto, è come se stessimo conversando amabilmente in una piazza cosparsa di mine antiuomo, sforzandoci di non guardarle, di ignorare chi le indica e persino di arrestare chi prova a rimuoverle. [2] Ah se esistessero coltelli da cucina VERAMENTE NEUTRALI! Coltelli da cucina automaticamente impegnati a mantenere l'equilibrio fra bene e male! Quanti miliardari in meno! :-D https://assortedmeeples.com/true-neutral-dnd-alignment-guide [3] Per chi volesse rileggerlo: https://server-nexa.polito.it/pipermail/nexa/2025-January/053758.html [4] come, in fondo, ha delicatamente provato a fargli notare Alberto https://server-nexa.polito.it/pipermail/nexa/2025-January/053759.html [5] "Ebbene: un riassunto-traduzione come quello che ChatGPT ha fatto del transcript della Prof. Vallor qualche anno fa ce lo sognavamo, credimi." https://server-nexa.polito.it/pipermail/nexa/2025-January/053770.html NOTE to SELF: "approfondire cosa bevessero/mangiassero prima di andare a dormire, che nemmeno l'impepata di cozze..." :-D [6] https://jehanne.h--k.it/ https://monitora-pa.it/ https://code.tesio.it/p/self-hosting/doh.cgi/file?name=POLITICS.txt&ci=tip https://monitora-pa.it/LICENSE.txt
PS: invito a far attenzione agli argomenti fantoccio (straw man), soprattutto se acquistano il tedioso carattere dell'insulto personale.
Se è riferito (anche) a me ed ho dato questa impressione, mi scuso, non c'era, non c'è e non ci sarà mai intenzione alcuna di insultare né te, né altri iscritti a questa lista. Ho l'abitudine (forse sbaglio) che se viene aggiunto un elemento in più alla discussione, e quell'elemento non mi è del tutto chiaro, replico in linea solo a quella parte. Nella fattispecie, visto che si trattava di numeri, è stato facile, partendo dalla fonte, capire a quale rapporto costi/benefici ci si riferisse. E' evidente che tu ti riferivi al solo settore LLM, io invece all'intero settore AI. Bene, con solo due mail aggiuntive abbiamo dato numeri e fonti agli altri iscritti per farsi un'idea minima del market size. E per me già questo non può che essere positivo. A.
Antonio, no scusami tu: l'invito a non fare sgradevoli insinuazioni e attacchi personali non era assolutamente rivolto a te, ho sbagliato io a mettere quella postilla nella risposta alla tua, come sempre corretta, osservazione. G. Il Mar 7 Gen 2025, 00:12 Antonio <antonio@piumarossa.it> ha scritto:
PS: invito a far attenzione agli argomenti fantoccio (straw man), soprattutto se acquistano il tedioso carattere dell'insulto personale.
Se è riferito (anche) a me ed ho dato questa impressione, mi scuso, non c'era, non c'è e non ci sarà mai intenzione alcuna di insultare né te, né altri iscritti a questa lista. Ho l'abitudine (forse sbaglio) che se viene aggiunto un elemento in più alla discussione, e quell'elemento non mi è del tutto chiaro, replico in linea solo a quella parte. Nella fattispecie, visto che si trattava di numeri, è stato facile, partendo dalla fonte, capire a quale rapporto costi/benefici ci si riferisse. E' evidente che tu ti riferivi al solo settore LLM, io invece all'intero settore AI. Bene, con solo due mail aggiuntive abbiamo dato numeri e fonti agli altri iscritti per farsi un'idea minima del market size. E per me già questo non può che essere positivo.
A.
Il 05/01/25 21:11, Stefano Zacchiroli ha scritto:
Giustissimo, ma mi permetto di osservare che questo è un argomento "jolly" che potremmo, e dovremmo, applicare a tutte le tecnologie informatiche. Ci facciamo le stesse domande per YouTube
Personalmente sì! Per esempio, nelle discussioni sulla sostenibilità dei progetti Wikimedia ho proposto di considerare che ogni ora spesa dalle persone sulle pagine di Wikipedia o altri progetti altamente testuali, se sottratta ad alternative come il consumo di video in streaming ad alta risoluzione, è a tutti gli effetti una misura di risparmio energetico. Allo stesso modo, la società civile (EDRi ecc.) ha evidenziato a suo tempo che l'articolo 17 della direttiva 790/2019, facilitando di fatto i monopolisti dello streaming come Spotify e YouTube, ne causa inevitabilmente l'espansione (con conseguente amplificazione dei rispettivi danni climatici). Purtroppo però non si può chiedere al settore privato di mettere in pratica simili considerazioni da "scacchi in 4D" nelle proprie decisioni quotidiane. Le soluzioni sistemiche tendono a essere prerogativa delle decisioni di tassazione sopranazionale. Ai singoli resta solo la possibilità di effettuare scelte settore per settore. Federico
participants (10)
-
Alberto Cammozzo -
Alfredo Bregni -
Antonio -
Daniela Tafani -
Federico Leva (Nemo) -
Giacomo Tesio -
Guido Vetere -
maurizio lana -
Silvia Crafa -
Stefano Zacchiroli