Grazie davvero a Silvia per la segnalazione, veramente un'ora ben spesa. Concordo con Alberto, "se il libro mantiene le aspettative che il talk ha generato, sarà un riferimento irrinunciabile". Sono particolarmente curioso di leggere le proposte di utilizzo programmazione statistica a fini democratici. Ho infatti particolarmente apprezzato come ha risposto alla ricercatrice che le ha chiesto se e come si potrebbero usare le AI generative per decolonizzare l'insegnamento universitario. [1] Per non parlare della citazione di Ortega y Gasset, che userò d'ora in poi quando qualcuno dice che non tutti possono imparare a programmare. Nel merito, la metafora dello specchio proposta dalla Professoressa Vallor è molto interessante. I parallelismi che osserva fra dati e luce, fra "modello" e specchio, nonché fra intelligenza simulata e oggetto riflesso potrebbero essere effettivamente molto utili per spiegare questi software a bambini giustamente curiosi ma legittimamente privi delle competenze informatiche di base. Io stesso, definendo informazione, dato e informatica, ricordo che i computer (non solo le AI) sono meri specchi per le menti umane. [2] Un problema che però nel talk la Professoressa Vannon non i pone è "perché così tanti adulti hanno bisogno di metafore per spiegare un software costruito dall'uomo?". Non è un misterioso fenomeno naturale! Non se lo pone sebbene riconosca che tutte le metafore sono limitate. Infatti la metafora dello specchio levigato dai dati per riflettere l'intelligenza umana che quei dati rappresentano, soffre degli stessi limiti della metafora della calibrazione (che anche io usavo anni fa [3] e che ritroviamo in altra forma nell'Assisi AI Act recentemente passato in lista, "macchine calibrate con (tanti) dati"): nasconde responsabilità, arbitrio e potere di chi quei software li crea. La calibrazione di una bilancia lascia pochissima libertà a colui che la esegue, perché alla fine chiunque potrà verificarne il funzionamento corretto semplicemente collocandovi sopra pesi noti di riferimento. Esiste un peso "giusto", insomma. Uno specchio rifletterà comunque qualcosa che c'è fuori dallo specchio. Nessuna di queste affermazioni è applicabile ai software programmati statisticamente. Parlare invece di programmazione, ancorché statistica, pone sempre in evidenza il programmatore. Parlando di "software programmati statisticamente", siamo costretti a chiederci chi e per che scopi li ha programmati, invece di chiederci "cosa hanno imparato?": la differenza è sostanziale e ricca di implicazioni. Ad esempio: è intelligente chiedere chi ha programmato statisticamente un LLM per vincere l'imitation game, spendendo miliardi e ingannando milioni di persone, di riassumere un talk che letteralmente lo associa a ciarlatani che fanno giochi di specchi? Perché se non lo è, non è nemmeno intelligente chiederlo al LLM che ne riproduce pedissequamente la volontà, definendo lo spazio del pensabile di milioni di sciocchi. Dunque, credo ancora che "software programmato statisticamente" sia una locuzione migliore delle alternative proposte sin qui perché, contrariamente a "intelligenza artificiale", "macchine cognitive", "esseri tecnici", o anche "SALAMI", non è una metafora, ma una descrizione attinente e comprensibile di ciò di cui parliamo. Giacomo [1] """ For example, you mentioned the efforts that we might have to decolonise the curriculum. We might say, Okay, to a large language model. Here's my syllabus. I would like to decolonise this syllabus. Does this model understand why you want to do that? Does it understand why it's important? By the way, if you ask why it's important, it will give you an answer and it'll sound kind of plausible. That doesn't mean it understands the answer, right? [...] I do think actually there's a default argument for saying, what's your argument for using this tool? Is there a reason that will justify this expenditure of energy? Is there a reason that will justify you letting go off this work and handing it over to a machine? """ Queste ultime domande sono giustamente molto esigenti. Se chiedessimo a Guido, ad esempio, "perché ti sei sentito autorizzato a consumare l'energia richiesta da un LLM per produrre una pseudo-sintesi ridicola che, guarda caso, omette o banalizza tutti i punti salienti della critica di Vallor, riducendo l'intero talk ad una fuffa trita e ritrita di "creatività da preservare" e "uso responsabile" da giornaletto di provincia che riporta le brochure commerciali di Google & friends?", la sua risposta più probabile (alla luce dei dati recenti :-D) On Thu, 2 Jan 2025 16:40:20 +0100 Guido Vetere wrote:
l'ora risparmiata non l'ho passata a pettinare le bambole :-)
sarebbe indicativa proprio dell'urgenza di ascoltare il talk, per imparare a riservarsi tempo (oltre che spazio mentale) per annoiarsi, per abituarsi alla noia, e perché no, persino a pettinare le bambole. Scusami Guido, ma davvero, usando un LLM per "riassumere" questo talk, hai letteralmente confermato TUTTE le affermazioni dell'autrice sui gravi danni che l'AI generativa causa alla mente umana! :-D Credo che l'autrice apprezzerebbe l'ironia ricorsiva del breve siparietto, che non sarà sfuggita anche a tutti coloro che hanno effettivamente provato ad ascoltare il talk. [2] https://encrypted.tesio.it/2019/06/03/what-is-informatics.html#so-what-is-in... [3] https://encrypted.tesio.it/2018/01/19/the-delusions-of-neural-networks.html