Caro Guido,
per economia, rispondo in linea. Non credo che questa 'querelle'
meriti molte altre parole, solo una precisazione e una domanda.
A furor di popolo - e per non dar adito - ho letto tutta la trascrizione (verosimilmente fatta da un software-programmato-statisticamente) del talk di Shannon Vallor.Lo so: mi sono perso quei tratti soprasegmentali (accenti, toni, sospiri) che sono parte integrante del Dasein linguistico, però ho avuto l'agio di soffermarmi su alcuni passaggi e pensarci un po' su - miracoli di quella tecnologia chiamata scrittura!
Quello che mi perplime del discorso in toga e tocco sono alcune petizioni di principio e alcune apparenti inconsistenze. L'uso di questi software-programmati-statisticamente (AI nel seguito, per brevità) riempie lo 'spazio mentale' (mental space filling machine) perché, anche se potremmo usarli come supporto dei processi decisionali (we could try to use AI mirrors as aids to our own learning, thinking, deliberating) questo sarebbe 'poco efficiente' (but that would be less efficient), e comunque le AI non possono pensare il futuro se non nei termini del passato (they predict only what was already there in the training data). Insomma non è chiaro (o almeno non ho capito) se in linea di principio potremmo usare le AI come strumento critico oppure se queste siano inerentemente soppressive dell'uman pensiero.
Vallor distingue opportunamente tra impieghi del ML giustificati
e quelli che alimentano lo hype AI (in particolare gli LLM).
Nel nostro caso: la trascrizione automatica del talk magari è
utile, il riassunto fatto dagli LLM non lo è.
It's not my view that we must resist all uses of these technologies. But I do think actually there's a default argument for saying, what's your argument for using this tool? Is there a reason that will justify this expenditure of energy? Is there a reason that will justify you letting go of this work and handing it over to a machine? And there are cases where we do have a cogent argument, especially for something that's important to be done that we literally cannot do ourselves. Because of the mathematical power of these systems, there are kinds of problems it can solve that might take us centuries. The whole point about DeepMind's AlphaFold winning the Nobel Prize was centred around the fact that that model, which is not a generative AI tool like chatGPT, but it is a very large machine learning model. The reason that that model was worth the expenditure. Was because it can solve a problem that will save lives that we could not have done on our own without perhaps decades or centuries of time lost. Those are those kind of decisions that I think it's incumbent on us to reflect on rather than mindlessly saying, I have a task. Let me let AI fill it
La domanda di Vallor è molto pragmatica: date le note conseguenze
negative dell'uso massivo degli LLM, è giustificato il loro uso
così estensivo? Salvano vite? Risolvono problemi veri? O la loro
finale ragion d'essere sta solo nei profitti che generano?
Aggiungo incidentalmente che quando la bolla AI scoppierà, tra le
vittime ci saranno verosimilmente anche i progetti seri, come è
successo con la bolla dotcom.
Io dico questo: che se si ha fiducia nell'autopoiesi (l'essere 'ingegneri di sé stessi') allora dobbiamo avere fiducia che questa capacità venga applicata anche quando usiamo le nuove macchine. Se non abbiamo fiducia nella libertà poietica, allora la brutta notizia è che non possiamo farci niente.
Non credo che autopoiesi possa ridursi a 'ingegneria di
se'.
Il punto che ormai mi pare sia chiaro a chi legge questa lista è
che il pericolo non sta nelle macchine, ma nel potere di chi le
usa davvero per scopi di industrializzazione della manipolazione
in scala.
Le 'macchine' non sono questo o quello (mind filling, eccetera, o buone o cattive) per loro natura, ma per via del loro impiego nelle mani di chi le sviluppa e le usa per scopi quantomeno dubbi. Le capacità di quelle macchine nelle mani del collaudato business model del capitalismo della sorveglianza ci portano molto lontano da qualsiasi libertà, poietica o meno.
Nel secolo scorso, la radio fu usata per fare 'mind shaping' della classe operaia tedesca, convincendola del fatto che fosse meglio credersi razzialmente superiori piuttosto che appropriarsi dei mezzi di produzione. Il resto è noto. "Dai nuovi mezzi [di comunicazione] usciranno le vecchie sciocchezze" aveva detto Brecht, ma si sbagliava per difetto. Proprio il 'broadcasting' aveva contribuito a promuovere il falso al vero, come Goebbels aveva ben intuito. E comunque la diffidenza dell'intellettuale verso i 'nuovi mezzi' non sortì alcun effetto pratico: la polemica contro il medium fu un atteggiamento sterile.
Morale: proprio nella prospettiva fenomenologica ed esistenzialista evocata dalla Valler, dovremmo focalizzarci sull'uso progressista delle capacità che queste nuove tecnologie indubbiamente offrono. La geremiade serve a poco.
Se capisco bene, ogni resistenza è futile, accogliamo con serena
rassegnazione i nuovi Goebbels, piuttosto concentriamoci a usare i
loro stessi strumenti facendone qualcosa di ancora più
'progressista': sono curioso di sentire le proposte in tal senso.
E per geremiade immagino tu intenda il discorso del
profeta di sventura che anticipa effetti avversi di qualche evento
(come fece
Brecht) che ovviamente suona lamentoso per chi quell'evento lo
desidera o lo provoca.
Come chiameresti invece il gioioso profeta che invece anticipa
-sbagliando- effetti apparentemente favorevoli, tipo che quello
delle "macchine che ci libereranno dal lavoro", fallace mantra
progressista sin dalla prima rivoluzione industriale? Venditore di
snake oil, imbonitore?
A mio avviso la geremiade serve eccome, ma purtroppo è efficace solo nelle comunità scientifico-industriali responsabili, cioè capaci di accogliere il discorso critico e valutare responsabilmente come il proprio output sia in grado di interagire con la società in cui viene inserito. I biologi, per fare un esempio, sono stati capaci di moratorie.
Come già mi sono chiesto in questa lista: come mai questo spirito critico e dialettico non si applica nelle tecnologie informatiche? Perché il solo profeta ascoltato è l'imbonitore?
Buona domenica!
Altrettanto!
A.
G.
PS: e comunque il riassunto della trascrizione fatto da chi-sapete-voi non era niente male: provate voi a far di meglio :-)
On Fri, 3 Jan 2025 at 21:57, maurizio lana <maurizio.lana@uniupo.it> wrote:
Il 02/01/25 15:58, Alberto Cammozzo via nexa ha scritto:
Se il libro mantiene le aspettative che il talk ha generato, sarà un riferimento irrinunciabile.il libro è disponibile:
Vallor, Shannon. The AI Mirror: How to Reclaim Our Humanity in an Age of Machine Thinking. Oxford, New York: Oxford University Press, 2024. https://global.oup.com/academic/product/the-ai-mirror-9780197759066.
Maurizio
perché l’uomo possa fare pubblico uso della propria ragione è necessario che il potere agisca in pubblico norberto bobbio --- le persone per scegliere devono sapere, devono conoscere allora quello che un giornalista dovrebbe fare è informare giancarlo siani
Maurizio Lana
Università del Piemonte Orientale
Dipartimento di Studi Umanistici
Piazza Roma 36 - 13100 Vercelli