Alberto, grazie per le tue compassionevoli parole, ma ti assicuro che l'ora risparmiata non l'ho passata a pettinare le bambole :-) Grazie anche per aver riportato un passaggio molto illuminante che chi-sai-tu aveva tralasciato nella sua stringata sintesi:
AI mirrors can't make these kinds of radically new choices.
Che però è un po' come dire che chi viaggia in treno non può fermarsi a guardare il panorama. [tornando seri] Strano: i cibernetici della prima ora cercavano proprio nell'aleatorietà ri-combinatoria dei vecchi generatori markoviani la possibilità di sovvertire il senso comune. Ora invece è passato il concetto dei 'pappagalli stocastici' e guardiamo agli automi come una oppressiva reificazione del già detto. Come sempre, le cose sono assai complesse e bisogna guardarci dentro caso per caso. Ma di fondo: che vuol dire che una AI non è libera di fare scelte 'radicalmente nuove'? Cosa sarebbe questa 'novità radicale'? Più che Husserl e Ortega y Gasset a me viene in mente Henri Bergson, con tutto il suo carico di ambiguità. Ma parliamone. E mi associo ai ringraziamenti per la condivisione, prima colpevolmente omessi. G. On Thu, 2 Jan 2025 at 15:58, Alberto Cammozzo via nexa < nexa@server-nexa.polito.it> wrote:
Caro Guido,
mi spiace per te e per chi come te non ha più un'ora da dedicare a un contributo molto serio come quello della Vallor e deve ricorrere alle sintesi in bustina liofilizzata.
A pensarci bene: se uno non ha il tempo, perché darsi la pena di far fare la sintesi e leggerla quando bastava il titolo a riassumere l'intervento: e chissà perché poi la Vallor si è presa la briga di parlare per un'ora...
Non solo la sintesi dell'LLM non è corretta e non è utile, ma è anzi perniciosa: non rappresenta la lezione più di quanto mangiare la foto sulla confezione non rappresenti mangiare il panettone. Riassumere una poesia o la Costituzione non è provocatorio: è sbagliato, fuorviante, riduttivo e peggiorativo. Meglio sapere di ignorarne completamente il contenuto che mantenere la pretesa di conoscerlo per averne letto il riassunto.
Spero che chi non ha i 45 minuti di tempo per ascoltare trovi i pochi minuti necessari per leggere questa parte della trascrizione (~33'), forse la più 'operativa', visto che non solo non si lamenta della tecnica, ma chiama ogni umano ad essere *ingegnere del proprio futuro*: più operativa di così...:
Just as our AI mirrors don't know the space of reasons that we walk in, they don't know it's time either.
That is they don't have what philosophers like Edmund Husserl called our temporal horizon. The human experience of an open and indeterminate world, held open by the flow of conscious time where something new is always just over the horizon of our present experience and about to come into view. What comes into view is often familiar, recognisable. The sun rises every single day, just as it has in all of human history. Taxes are always due, and my cat always wants breakfast way too early.
But things and events of startling new shapes do arrive from time to time on an utterly unpredictable schedule. As the Scottish philosopher David Hume pointed out centuries ago, the unremovable wart on human reasoning is that we've got absolutely zero evidence that the future won't suddenly go all pair-shaped on us at any given instant. Life is utterly predictable until it isn't. But then that's a wart I'm eternally grateful for. Our ability to experience the future as utterly open is what makes us human because the future being a giant question mark is the heart of our cognitive, moral, artistic, and political freedom. It's what gives us the existential task of deciding each and every day and each and every moment, just how much of our past we want to bring with us into the future, how much of it we want to leave behind, and what we want to create in the open space that is new.
The Spanish philosopher José Ortega y Gasset called this the task of auto-fabrication, literally self making. He said, to be human is to be called to be an engineer. An engineer of yourself by choosing from your future's open possibilities, which of those to make real? But also with others, you're called to be an engineer of the future that we will share together. We are engineers of human futures, all of us. We might try as engineers to keep things looking much the same, but that too is an engineering choice to carry the past forward. We can always choose otherwise and sometimes do. We abandon a commitment that we promise to hold for life, or we make a commitment that we swore we'd never take on. We can extend our trademark artistic style into endless satisfying variations or we can drop it on a dime and leave our audiences utterly baffled.
We can stick with the dire politics we know, or we can say, 'to hell with this -- we're changing the game.' We can keep burning the world for the temporary benefit of a handful of billionaires, or we can say, 'no more.' But here's the thing. AI mirrors can't make these kinds of radically new choices. They're stuck pointing backward, reflecting what has been seen in the past. That's why their reflections keep regenerating the most common social biases and most widespread errors, a digital humanity's history. That's why the speeches and essays and songs they generate are so weirdly generic and somehow familiar, even though we've never seen them before.
Credo che quello della Vallor sia un contributo illuminante e dotato di grande spessore, ringrazio Silvia per avercelo segnalato.
Se il libro mantiene le aspettative che il talk ha generato, sarà un riferimento irrinunciabile.
Buon anno,
Alberto
On 02/01/25 12:40, Guido Vetere wrote:
forse suona un po' 'provocative' (e me ne scuso) ma questa è la sintesi dell'intervento (1 ora - e chi ce l'ha?) fatta da chi-sapete-voi :-)
*Il talk, centrato sulla metafora dello specchio per descrivere l'intelligenza artificiale (IA), esplora come queste tecnologie riflettano, amplifichino e spesso distorcano i dati umani da cui derivano. L'autore utilizza lo specchio come una metafora più utile rispetto a quella della mente, sottolineando che le IA, come i modelli di linguaggio, non pensano, ma riflettono i dati raccolti, amplificando valori, pregiudizi e pattern già esistenti.*
*Viene discusso il ruolo dell'IA nel trasformare aspetti fondamentali della società, come democrazia, educazione, scienze, media e clima, e si sottolinea il pericolo che essa rappresenta nel confondere le persone, facendole credere che ci sia una "mente" dietro le risposte intelligenti. Tuttavia, l'IA, come uno specchio, riflette solo ciò che ha appreso dai dati passati, senza la capacità di creare qualcosa di veramente nuovo.*
*Il talk mette in guardia contro l'automazione indiscriminata dei processi decisionali umani, evidenziando il rischio di perdere la capacità di pensare in modo critico e creativo, e sottolinea la necessità di preservare il "tempo mentale" e lo "spazio mentale" per il pensiero profondo e la narrazione personale. Si invita a utilizzare l'IA in modo responsabile e con una chiara consapevolezza dei suoi limiti, ponendo enfasi sul fatto che le decisioni umane e i valori debbano rimanere al centro del suo utilizzo.*
*Infine, l'autore critica l'uso dell'IA come strumento per sostituire la narrazione umana nei media, nell'educazione e nelle arti, e richiama l'importanza di mantenere la capacità umana di raccontare storie, immaginare futuri nuovi e affrontare le sfide collettive con creatività e autonomia. *
è corretto? è utile? comunque, buon anno!
G:
PS: da Platone a Heidegger un sacco di gente si è lamentata della tecnica, ma questo non ha mai cambiato la tecnica. Forse sarebbe più utile ragionare in modo operativo ...
On Thu, 2 Jan 2025 at 10:42, Silvia Crafa <crafa@math.unipd.it> wrote:
Buondì, nell'augurare a tutti un buon nuovo anno, segnalo questa lecture di Shannon Vallor, che affronta il tema dell'AI con un approccio filosofico che coniuga profondità e concretezza, di cui c'è sempre molto bisogno.
Shannon Vallor - Inaugural Lecture 23.10.24 - University of Edinburgh In a mirror, dimly. Why AI can't tell our stories and why we must
https://media.ed.ac.uk/media/Shannon+Vallor+-+Inaugural+Lecture+23.10.24+/1_...
Silvia C.