Non credo che questo accadrà, ma credo che sia uno dei desideri dell'industria ICT quello di rimpiazzare il processo di programmazione, che presenta diversi problemi di scala, con qualcosa di più gestibile industrialmente. <https://cacm.acm.org/magazines/2023/1/267976-the-end-of-programming/fulltext> Viewpoint The End of Programming By Matt Welsh Communications of the ACM, January 2023, Vol. 66 No. 1, Pages 34-35 10.1145/3570220 [...] *Programming will be obsolete.* I believe the conventional idea of "writing a program" is headed for extinction, and indeed, for all but very specialized applications, most software, as we know it, will be replaced by AI systems that are /trained/ rather than /programmed./ In situations where one needs a "simple" program (after all, not everything should require a model of hundreds of billions of parameters running on a cluster of GPUs), those programs will, themselves, be generated by an AI rather than coded by hand. I do not think this idea is crazy. No doubt the earliest pioneers of computer science, emerging from the (relatively) primitive cave of electrical engineering, stridently believed that all future computer scientists would need to command a deep understanding of semiconductors, binary arithmetic, and microprocessor design to understand software. Fast-forward to today, and I am willing to bet good money that 99% of people who are writing software have almost no clue how a CPU actually works, let alone the physics underlying transistor design. By extension, I believe the computer scientists of the future will be so far removed from the classic definitions of "software" that they would be hard-pressed to reverse a linked list or implement Quicksort. (I am not sure I remember how to implement Quicksort myself.) AI coding assistants such as CoPilot are only scratching the surface of what I am describing. It seems totally obvious to me that /of course/ all programs in the future will ultimately be written by AIs, with humans relegated to, at best, a supervisory role. Anyone who doubts this prediction need only look at the very rapid progress being made in other aspects of AI content generation, such as image generation. The difference in quality and complexity between DALL-E v1 and DALL-E v2—announced only 15 months later—is staggering. If I have learned anything over the last few years working in AI, it is that it is /very/ easy to underestimate the power of increasingly large AI models. Things that seemed like science fiction only a few months ago are rapidly becoming reality. So I am not just talking about things like Github's CoPilot replacing programmers.^1 <https://cacm.acm.org/magazines/2023/1/267976-the-end-of-programming/fulltext...> I am talking about /replacing the entire concept of writing programs with training models./ In the future, CS students are not going to need to learn such mundane skills as how to add a node to a binary tree or code in C++. That kind of education will be antiquated, like teaching engineering students how to use a slide rule. The engineers of the future will, in a few keystrokes, fire up an instance of a four-quintillion-parameter model that already encodes the full extent of human knowledge (and then some), ready to be given any task required of the machine. The bulk of the intellectual work of getting the machine to do what one wants will be about coming up with the right examples, the right training data, and the right ways to evaluate the training process. Suitably powerful models capable of generalizing via few-shot learning will require only a few good examples of the task to be performed. Massive, human-curated datasets will no longer be necessary in most cases, and most people "training" an AI model will not be running gradient descent loops in PyTorch, or anything like it. They will be teaching by example, and the machine will do the rest. [...]
Più che problemi di scala, credo che l'industria sia seriamente preoccupata dalla crescente coscienza politica dei programmatori. Una coscienza politica che può modificare i rapporti di potere, visto che gli informatici hanno pieno controllo dei mezzi di produzione fondamentali per la propria epoca, saldamente ancorati sul collo. Oggi è importante convincerli di essere sostituibili (da cui quel pezzo di propaganda), ma il sogno di chi controlla gli altri strumenti di produzione è poterli possedere completamente. E visto che la riduzione in schiavitù dei programmatori al momento è fuori discussione, tutto ciò che possono fare è investire i propri capitali per costruire programmatori di cui si possano legalmente appropriare. D'altro canto, per quanto fantasiose siano queste velleità, ignoranza e propaganda le fanno apparire realistiche. Mentre quando qualcuno fa notare che esistono scenari alternativi ben più realizzabili, viene definito "idealista". D'altro canto, se il sogno dei capitalisti della sorveglianza è che nessuno sappia più programmare, l'idea che lo sappiano fare tutti è un vero incubo! Pensa che succederebbe ai loro business model o al loro potere! Per questo progettare un mondo in cui tutti sanno programmare deve apparire una perdita di tempo, mentre progettare un mondo le cui regole fondamentali sono opace e "realizzate da algoritmi" deve apparire come investimento nel progresso. Giacomo On December 25, 2022 9:27:20 PM UTC, Alberto Cammozzo via nexa <nexa@server-nexa.polito.it> wrote:
Non credo che questo accadrà, ma credo che sia uno dei desideri dell'industria ICT quello di rimpiazzare il processo di programmazione, che presenta diversi problemi di scala, con qualcosa di più gestibile industrialmente.
<https://cacm.acm.org/magazines/2023/1/267976-the-end-of-programming/fulltext>
Concordo con te, Giacomo. L'idea di una programmazione basata su sistemi di ML, mentre Stack Overflow bandisce le risposte provenienti da Chat-GPT <https://www.zdnet.com/article/stack-overflow-temporarily-bans-answers-from-openais-chatgpt-chatbot/>https://stackoverflow.com/help/gpt-policy è puro snake oil (parla da sé, del resto, la bibliografia finale). Ma non è un articolo stupido, per quanto implausibile sia la tesi. E' un articolo politico, hai ragione, un caso da manuale di "chiusura del futuro". Sul breve periodo in cui "rivoluzione" e "utopia" hanno significato, con la modernità, una partenza radicale, che rinviava a un futuro aperto, costruibile socialmente e politicamente, e, invece, sull'attuale alleanza di rivoluzione e utopia in un senso solo tecnologico, con un tecnofuturo che ha lo scopo non di prevedere o anticipare, ma solo di defamiliarizzare il presente, generando chiusura e inerzia: Sun-ha Hong, Predictions without futures, 2022 https://onlinelibrary.wiley.com/doi/10.1111/hith.12269 <https://onlinelibrary.wiley.com/doi/10.1111/hith.12269> Un caro saluto, Daniela ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Giacomo Tesio <giacomo@tesio.it> Inviato: lunedì 26 dicembre 2022 10:27 A: Alberto Cammozzo; Alberto Cammozzo via nexa; Nexa Oggetto: Re: [nexa] The End of Programming Più che problemi di scala, credo che l'industria sia seriamente preoccupata dalla crescente coscienza politica dei programmatori. Una coscienza politica che può modificare i rapporti di potere, visto che gli informatici hanno pieno controllo dei mezzi di produzione fondamentali per la propria epoca, saldamente ancorati sul collo. Oggi è importante convincerli di essere sostituibili (da cui quel pezzo di propaganda), ma il sogno di chi controlla gli altri strumenti di produzione è poterli possedere completamente. E visto che la riduzione in schiavitù dei programmatori al momento è fuori discussione, tutto ciò che possono fare è investire i propri capitali per costruire programmatori di cui si possano legalmente appropriare. D'altro canto, per quanto fantasiose siano queste velleità, ignoranza e propaganda le fanno apparire realistiche. Mentre quando qualcuno fa notare che esistono scenari alternativi ben più realizzabili, viene definito "idealista". D'altro canto, se il sogno dei capitalisti della sorveglianza è che nessuno sappia più programmare, l'idea che lo sappiano fare tutti è un vero incubo! Pensa che succederebbe ai loro business model o al loro potere! Per questo progettare un mondo in cui tutti sanno programmare deve apparire una perdita di tempo, mentre progettare un mondo le cui regole fondamentali sono opace e "realizzate da algoritmi" deve apparire come investimento nel progresso. Giacomo On December 25, 2022 9:27:20 PM UTC, Alberto Cammozzo via nexa <nexa@server-nexa.polito.it> wrote:
Non credo che questo accadrà, ma credo che sia uno dei desideri dell'industria ICT quello di rimpiazzare il processo di programmazione, che presenta diversi problemi di scala, con qualcosa di più gestibile industrialmente.
<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202212260927450269546...>
nexa mailing list nexa@server-nexa.polito.it https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202212260927450269546...
Caro Giacomo, condivido anche io il giudizio sul valore propagandistico del pezzo, con il solito travestimento da "breaktough" epocale. Ho qualche dubbio sulla classe dei programmatori. Se ho capito bene escludi la riduzione in schiavitù dei programmatori e sostieni che (visto che possiedono i mezzi di produzione) questi starebbero maturando una "coscienza politica di classe" tale da minacciare (come un fantasma che gira per il mondo?) le sicurezze del capitalismo della sorveglianza. Mi rallegrerei di poter condividere questo punto di vista, ma il mio è piuttosto lontano. Per quanto ne so io, il software viene scritto prevalentemente in zone del mondo o molto ricche (come in Silicon Valley) o molto povere (come in Chennai o Bangalore), in cui i programmatori o hanno un potere contrattuale individuale molto forte, o non ne hanno affatto, ma in cui la coscienza di classe mi pare comunque debole. Quello di essere un hacker che sceglie la propria licenza è un lusso. Sarebbe come dire che l'industria della musica non ha potere sui violinisti perché questi hanno il controllo del mezzo di produzione e sono coscienti del loro statuto di artisti. Anche ammettendo le premesse, una parte di loro saranno tanto ben pagati da sentirsi una elite, e gli altri tanto poco da accettare quasi qualsiasi prezzo per un ingaggio. Ci sarà anche un qualche bravo violinista che accetterà di essere molto pagato per addestrare un modello ML che interpreti qualsiasi pezzo al posto suo. In ogni caso. il controllo della risorsa mi pare molto ben saldo in mano a chi la controlla: non credo che l'industria del software tema nemmeno lontanamente uno sciopero dei programmatori, non mi risulta nemmeno ce ne sia mai stato uno. Mi è parso significativo che a scrivere il pezzo che ho segnalato sia un ex accademico di Harvard ed ex Google. Lo ho segnalato perché esplicita un pensiero che ho da anni sulla natura industriale dell'"AI turn". Seguendo le logiche industriali il machine learning consente di ridurre i costi, ma soprattutto l'incertezza, standardizzando processi e sostituendo programmatori che o sono locali, cari, scarsi e di difficile scalabilità oppure remoti, relativamente economici e abbondanti ma difficili da gestire, visto che l'outsourcing del software pone problemi organizzativi, di comunicazione, di barriere culturali e linguistiche. Welsh parla una lingua, quella di modello/serie, ben compresa dall'industria: sarebbe come, per una manifattura di stoviglie ceramiche, acquistare una macchina per stampi e liberarsi di decine di tornitori: ne basta uno (bravo, da pagare una volta per il modello) che faccia il pezzo sul quale modellare lo stampo. L'aspettativa rivoluzionaria dell'impiego industriale del ML sta però nel fatto che se nel modello industriale tradizionale il modello serviva a generare la serie, ora si può al contrario costruire il modello da una determinata serie, per poi poterla replicare all'infinito in una nuova serie. Come dire: prendo 10 delle 57 uova Fabergé sopravvissute e ne faccio un modello per produrne industrialmente a piacere. Matt Welsh cerca di convincerci che possiamo sostituire interi team (in Silicon Valley o in India) con una o due persone che fanno il vero "intellectual work" (lo stampo, il modello), mentre il resto sarà fatto dalle macchine, senza nemmeno le orde di "scimmie" necessarie per il training: The bulk of the intellectual work of getting the machine to do what one wants will be about coming up with the right examples, the right training data, and the right ways to evaluate the training process. Personalmente non credo molto che questo renderà il lavoro di programmazione inutile, dipende troppo dai contesti e ci sono altri problemi che ancora non sono ben chiari o il cui impatto non è stato misurato, ma la promessa è questa, liberarsi della complessità e della variabilità introdotta da molti umani. Come diceva Daniela, prospetta un futuro per chiuderne altri che siano diversi. Vedo questa spinta nel mio lavoro di programmazione, che serve potenzialmente a filtrare dati per addestrare modelli che rendano ulteriori programmazioni inutili, con la promessa che una volta azzeccato sufficientemente bene il modello, quello funzionerà per sempre e sempre bene. Anche se è evidente che questi "modelli finali" non esistono, sto pensando a qualche forma di obiezione di coscienza (una licenza che escluda l'uso per training? ogni suggerimento è benvenuto). Infine, la tua proposta mi pare essere quella che se tutti sanno programmare, non ci sarà bisogno di modelli. Condivido l'auspicio di una diffusa competenza di programmazione, come quella che tutti sappiano suonare il violino e tornire l'argilla: sono espressioni della creatività umana e della sua competenza. Sono manifestazioni della sua libertà. Non troppi anni fa chiunque andasse a scuola sapeva poi suonare, disegnare, usare strumenti e attrezzi: imparava ad essere umano, insomma. Anche se non credo che la maggiore offerta di programmatori competenti possa scalfire la dinamica industriale sottostante il machine learning, che è quella di liberarsi per quanto possibile dall'umano e dall'incerto, tuttavia credo che possa almeno inceppare un'altra dinamica industriale, che è quella della generazione di una scarsità (quella di programmatori) come conseguenza del successo di un prodotto industriale (il ML). Per rimanere negli esempi precedenti: il successo della riproduzione musicale industriale riduce la domanda di orchestre e quindi di violinisti. In conclusione, per me il deficit non è tecnico né economico, ma morale; non è di risorse, ma di valori. Non cosa facciamo e come, ma a che fine. Baudrillard, che ha molto riflettuto anche sul sistema modello/serie, in "il sistema degli oggetti" (1968!) scrive (scusatemi la lunga citazione): Possiamo seguire le mitologie funzionali, nate dalla tecnica, fino a quella specie di fatalità in cui la tecnica del dominio del mondo si cristallizza in una finalità contraria e minacciosa. A questo punto occorre: 1° Impostare nuovamente il problema della fragilità degli oggetti, della loro defezione: se ci si offrono innanzi tutto come fonti di sicurezza, fattori d’equilibrio, anche se nevrotico, sono tuttavia contemporaneamente un fattore di delusione. 2° Rimettere in discussione l’ipotesi implicita della nostra società: la razionalità dei fini e dei mezzi nel sistema produttivo e nel progetto tecnico. Sono questi due aspetti che concorrono alla disfunzionalità o alla contro-funzionalità dell’oggetto: un sistema socio-economico di produzione e un sistema psicologico di proiezione. E necessario definire l’interazione e la collusione dei due sistemi. La società tecnologica si regge su due miti potenti: il progresso ininterrotto delle tecniche e il “ritardo” etico degli uomini rispetto alle tecniche. I due aspetti sono solidali: la “stagnazione” morale trasfigura il progresso tecnico, unico valore sicuro, rendendolo l’istanza definitiva della nostra società: immediatamente il sistema produttivo rimane senza colpe. Sotto la copertura di una contraddizione morale, si evita la contraddizione reale: proprio il sistema produttivo si oppone, mentre lavora, a un progresso tecnologico reale (e dunque a una ristrutturazione dei rapporti sociali). Il mito di una convergenza ideale delle tecniche, della produzione e del consumo maschera tutte le controfinalità politiche ed economiche. Ma come può progredire armonicamente un sistema di tecniche e di oggetti mentre il sistema di rapporti tra gli uomini che le producono è stagnante o addirittura in regressione? Uomini e tecniche, bisogni e oggetti si strutturano reciprocamente in bene o in male. Ciao, Alberto On 26/12/22 10:27, Giacomo Tesio wrote:
Più che problemi di scala, credo che l'industria sia seriamente preoccupata dalla crescente coscienza politica dei programmatori.
Una coscienza politica che può modificare i rapporti di potere, visto che gli informatici hanno pieno controllo dei mezzi di produzione fondamentali per la propria epoca, saldamente ancorati sul collo.
Oggi è importante convincerli di essere sostituibili (da cui quel pezzo di propaganda), ma il sogno di chi controlla gli altri strumenti di produzione è poterli possedere completamente.
E visto che la riduzione in schiavitù dei programmatori al momento è fuori discussione, tutto ciò che possono fare è investire i propri capitali per costruire programmatori di cui si possano legalmente appropriare.
D'altro canto, per quanto fantasiose siano queste velleità, ignoranza e propaganda le fanno apparire realistiche.
Mentre quando qualcuno fa notare che esistono scenari alternativi ben più realizzabili, viene definito "idealista".
D'altro canto, se il sogno dei capitalisti della sorveglianza è che nessuno sappia più programmare, l'idea che lo sappiano fare tutti è un vero incubo!
Pensa che succederebbe ai loro business model o al loro potere!
Per questo progettare un mondo in cui tutti sanno programmare deve apparire una perdita di tempo, mentre progettare un mondo le cui regole fondamentali sono opace e "realizzate da algoritmi" deve apparire come investimento nel progresso.
Giacomo
On December 25, 2022 9:27:20 PM UTC, Alberto Cammozzo via nexa<nexa@server-nexa.polito.it> wrote:
Non credo che questo accadrà, ma credo che sia uno dei desideri dell'industria ICT quello di rimpiazzare il processo di programmazione, che presenta diversi problemi di scala, con qualcosa di più gestibile industrialmente.
<https://cacm.acm.org/magazines/2023/1/267976-the-end-of-programming/fulltext>
Ciao Alberto, grazie della tua risposta, profonda come sempre. On Mon, 26 Dec 2022 17:14:07 +0100 Alberto Cammozzo wrote:
Ho qualche dubbio sulla classe dei programmatori. Se ho capito bene escludi la riduzione in schiavitù dei programmatori e sostieni che (visto che possiedono i mezzi di produzione) questi starebbero maturando una "coscienza politica di classe" tale da minacciare (come un fantasma che gira per il mondo?) le sicurezze del capitalismo della sorveglianza.
Per la precisione, io ho scritto "coscienza politica" senza precisare "di classe" perché ahimé le due cose non coincidono ancora. Il tema è complesso. Una vera lotta politica E di classe, fra informatici e capitalisti è già corso da decenni, sebbene non venga chiamata "lotta di classe". E' narrata come la lotta "agli hacker" (quelli "cattivi"), dal P.H.I.R.M. a Phineas Fisher, da DVDJon a RMS, da Snowden ad Assange... Ma vista dall'altro punto di vista è anche la lotta degli informatici dotati di coscienza politica (ma non necessariamente di classe), contro il capitale che ne limita il potenziale rivoluzionario.
Per quanto ne so io, il software viene scritto prevalentemente in zone del mondo o molto ricche (come in Silicon Valley) o molto povere (come in Chennai o Bangalore), in cui i programmatori o hanno un potere contrattuale individuale molto forte, o non ne hanno affatto, ma in cui la coscienza di classe mi pare comunque debole. Quello di essere un hacker che sceglie la propria licenza è un lusso.
Hai ragione: si tratta di una lotta politica e di classe sebbene solo una delle classi coinvolte ne sia pienamente consapevole: quella dei capitalisti. Molti informatici combattono questa guerra senza nemmeno comprendere a fondo cosa li spinge, cosa li accomuna... Restringendo persino i propri strumenti di lotta! Questo perché non hanno ancora piena consapevolezza del proprio potere. E quando ce l'hanno, spesso si allineano ai capitalisti, per le dinamiche che descrivi. Tuttavia in Europa ed in Italia le cose sono un po' diverse. Stipendi bassi ma non bassissimi. Un minimo di cultura dei diritti. Un mix potenzialmente esplosivo in attesa di una miccia. Forse qui questa nuova classe emergente, potrà finalmente acquisire piena coscienza di sé.
Sarebbe come dire che l'industria della musica non ha potere sui violinisti perché questi hanno il controllo del mezzo di produzione e sono coscienti del loro statuto di artisti. Anche ammettendo le premesse, una parte di loro saranno tanto ben pagati da sentirsi una elite, e gli altri tanto poco da accettare quasi qualsiasi prezzo per un ingaggio. Ci sarà anche un qualche bravo violinista che accetterà di essere molto pagato per addestrare un modello ML che interpreti qualsiasi pezzo al posto suo.
L'informatica è l'infrastruttura fondamentale di questo millennio. E' presente ovunque e cambia inesorabilmente ogni cosa che tocca. Dalla medicina, alla finanza, alla musica, all'agricoltura... La musica non ha questo potere e questa pervasibità, strutturale e funzionale. Non puoi paragonarla con nessuna altra attività umana, se non con la lettura e la scrittura (che in effetti sono le prime rivoluzioni informatiche della storia).
In ogni caso. il controllo della risorsa mi pare molto ben saldo in mano a chi la controlla: non credo che l'industria del software tema nemmeno lontanamente uno sciopero dei programmatori, non mi risulta nemmeno ce ne sia mai stato uno.
:-) Meno di quanto si immagini. E' vero, organizzare uno sciopero di programmatori è davvero difficile. E' difficile perché, come dici tu, la nostra lotta di classe è condotta senza una piena coscienza di classe (se non da parte di una minoranza). Ma è già successo: https://invidious.weblibre.org/watch?v=0Upw6mzD7Pg D'altro canto, lo sciopero non è lo strumento di lotta più efficiente per noi programmatori. - Possiamo introdurre bug. - Possiamo rallentare lo sviluppo di nuovi software ("sciopero bianco" con perfect plausible deniability, perché sono i nostri cervelli che fanno la parte fondamentale del lavoro) - Possiamo scrivere software libero. - Possiamo scrivere software libero per abilitare nuove forme di lotta (pensa a uBlock Origin, a piHole, all'osservatorio di Monitora PA) - Possiamo aggirare i sistemi DRM, rendere evidente e ridicolizzare l'insicurezza strutturale dei software dei capitalisti della sorveglianza (pensa ai continui data breach...) - Possiamo aggirare la sorveglianza di massa ed insegnare a fare altrettanto Insomma... perché dovremmo limitarci agli strumenti di lotta novecenteschi quando i nostri avversari usano pienamente e consapevolmente gli strumenti che NOI realizziamo?
Mi è parso significativo che a scrivere il pezzo che ho segnalato sia un ex accademico di Harvard ed ex Google. Lo ho segnalato perché esplicita un pensiero che ho da anni sulla natura industriale dell'"AI turn".
E' significativo, certo. Mostra quanta poca credibilità vada attribuita a chi ha a che fare con certe società. Ma l'articolo riporta semplicemente propaganda di Google & friends. Che l'autore l'abbia sentita così tante volte da crederci, può anche essere. Rimane propaganda.
Matt Welsh cerca di convincerci che possiamo sostituire interi team (in Silicon Valley o in India) con una o due persone che fanno il vero "intellectual work" (lo stampo, il modello), mentre il resto sarà fatto dalle macchine, senza nemmeno le orde di "scimmie" necessarie per il training:
The bulk of the intellectual work of getting the machine to do what one wants will be about coming up with the right examples, the right training data, and the right ways to evaluate the training process.
Welsh vuole convincere gli imprenditori che potranno fare a meno di programmatori sempre meno succubi. Che sia per ragioni politiche, etiche o per mera incapacità tecnica, troppi programmatori non fanno ciò che l'imprenditore vuole. Non è questione di rischio imprenditoriale, ma di potere e controllo. Welsh vuole spingere quegli imprenditori che sperano di poter fare a meno dei programmatori ad investire nelle "AI".
Personalmente non credo molto che questo renderà il lavoro di programmazione inutile, dipende troppo dai contesti e ci sono altri problemi che ancora non sono ben chiari o il cui impatto non è stato misurato, ma la promessa è questa, liberarsi della complessità e della variabilità introdotta da molti umani. Come diceva Daniela, prospetta un futuro per chiuderne altri che siano diversi.
Vedo questa spinta nel mio lavoro di programmazione, che serve potenzialmente a filtrare dati per addestrare modelli che rendano ulteriori programmazioni inutili, con la promessa che una volta azzeccato sufficientemente bene il modello, quello funzionerà per sempre e sempre bene. Anche se è evidente che questi "modelli finali" non esistono, sto pensando a qualche forma di obiezione di coscienza (una licenza che escluda l'uso per training? ogni suggerimento è benvenuto).
Non che lo escluda, ma che lo renda soggetto alla licenza stessa. Per questo in Monitora PA usiamo la Hacking License e GitHub: https://github.com/MonitoraPA/monitorapa/blob/main/LICENSE.txt Se GitHub CopyALot distribuisse il nostro codice (cosa che speriamo di ottenere entro qualche anno) il suo modello diventerà sotto Hacking License e così tutti i software che ne includeranno i "suggerimenti". Immaginati che succederà a quel punto... :-)
Infine, la tua proposta mi pare essere quella che se tutti sanno programmare, non ci sarà bisogno di modelli.
Che ci siano o meno, farne accettare l'esecuzione sarà molto più complesso. D'altro canto l'intera economia sarà molto diversa.
Condivido l'auspicio di una diffusa competenza di programmazione, come quella che tutti sappiano suonare il violino e tornire l'argilla: sono espressioni della creatività umana e della sua competenza. Sono manifestazioni della sua libertà. Non troppi anni fa chiunque andasse a scuola sapeva poi suonare, disegnare, usare strumenti e attrezzi: imparava ad essere umano, insomma.
Ahimé, non è la stessa cosa. Non hai bisogno di tornire l'argilla tutti i giorni. Se non sai farlo, le tue altre facoltà non ne risultano sostanzialmente ridotte. Non sapere suonare il violino non ti pone alla mercé di chi sa farlo.
Anche se non credo che la maggiore offerta di programmatori competenti possa scalfire la dinamica industriale sottostante il machine learning, che è quella di liberarsi per quanto possibile dall'umano e dall'incerto, tuttavia credo che possa almeno inceppare un'altra dinamica industriale, che è quella della generazione di una scarsità (quella di programmatori) come conseguenza del successo di un prodotto industriale (il ML). Per rimanere negli esempi precedenti: il successo della riproduzione musicale industriale riduce la domanda di orchestre e quindi di violinisti.
Immagino tu stia sorvolando consapevolmente sul fatto che la programmazione statistica (aka "ML" o "AI") sia talmente incerta che nessuno se ne vuole prendere la responsabilità, per portare avanti il ragionamento dal punto di vista del povero fesso che da retta a Welsh... Perché parliamo di una pia illusione: potranno far credere ai programmatori umani di essere sostituibili, ma non lo saranno mai. In un'altro thread si sosteneva che il software che gestisce i freni di un auto (perché?) non dovrebbe essere sostituibile. Figurati se potremmo farlo programmare statisticamente... ad un software programmato statisticamente! :-D
In conclusione, per me il deficit non è tecnico né economico, ma morale; non è di risorse, ma di valori. Non cosa facciamo e come, ma a che fine.
Sono abbastanza d'accordo. Direi morale E culturale. Perché l'informatica è cultura: può essere uno strumento di potere sull'uomo o di emancipazione dell'uomo. La scelta fra i due è morale, ma la può compiere solo chi la comprende.
Baudrillard, che ha molto riflettuto anche sul sistema modello/serie, in "il sistema degli oggetti" (1968!) scrive (scusatemi la lunga citazione):
Bellissima citazione che, secondo me, parla di altro. Passato. La società cibernetica è caratterizzata da oggetti diversi dai precedenti, automatici, che definiscono gli spazi di libertà degli umani sulla base della volontà di chi li crea e diffonde. Alcuni automatismi surrogano completamente gli esseri umani, perseguendo quel processo di alienazione cibernetica che serve a ridurre l'autonomia degli esseri umani nel sistema per aumentarne la predicibilità: https://video.linuxtrent.it/w/uGeLUW9uwuU7siCavjNnZm?start=14m10s E questo avviene ormai fuori dal processo produttivo, nell'intimità delle nostre case. L'unica alternativa che vedo, purtroppo, è fra l'azzeramento della autonomia individuale (della libertà vera, quella che trascende la possibilità di scegliere fra alternative offerte da altri sullo scaffale), adattandosi ed integrandosi come ingranaggi nella società cibernetica ormai catturata da pochissimi, e la massimizzazione della autonomia cibernetica individuale ("computing agency" mi suona riduttivo) con la piena consapevolezza del funzionamento degli automatismi e il conseguente rifiuto di quelli che non possiamo modificare o programmare in prima persona adattandoli a noi. In altri termini la nostra alternativa è fra: adattarsi alla società cibernetica costruita da altri oppure adattare la società cibernetica alla nostra volontà Rispetto ad una società che esclude la maggioranza delle persone dalla partecipazione alla definizione delle sue regole, dobbiamo decidere se vogliamo adattarci o dis-adattarci, integrare o dis-integrare. Hacker o robot. Cittadini o schiavi. Per chi non sceglie, sceglieranno altri. La seconda opzione, purtroppo. A presto! Giacomo
Ciao Giacomo, grazie per la tua articolata e interessante risposta, che mi consente di precisare (a me stesso per primo) un pensiero che riassumo per temi invece che rispondere puntualmente; mi scuso davvero per la lunghezza. Sommariamente premetto che trovo utile distinguere industrialismo e capitalismo, poiché anche se capitalismo e industria sono intrecciatissimi, le dinamiche in questione qui sono proprie del modo di produzione industriale anche quando non è associato al ciclo capitale/profitto. L'industrializzazione ha dinamiche immutate nel socialismo sovietico e nel comunismo cinese o vietnamita, sempre industrialisti, mentre esiste un capitalismo non industriale, ad esempio quello finanziario. Sono trasversali alle ideologie novecentesche, con eccezione per l'origine del capitale industriale e la destinazione del surplus. Le due dinamiche sono indistricabili, ma distinguibili. Ad esempio la distruzione dell'ambiente dipende dal modo produzione industriale (ogni industria è estrattiva, il suo paradigma è la miniera: appropria, estrai, trasforma, lascia i rifiuti) ma la /scala/ della distruzione dipende dal consumismo di massa richiesto dal /capitalismo/ industriale. Questa premessa serve a chiarire i punti seguenti, in relazione alla tua risposta. 1) I programmatori e la loro coscienza politica e di classe. Ho introdotto il termine "di classe" deliberatamente, ammiccando alla terminologia marxista, ben consapevole che data l'egemonia ideologica neoliberista non esiste più nulla del genere. Fine della dialettica: niente tesi, niente antitesi, e fine anche delle ipotesi. Costruire una coscienza di classe era difficile nel paradigma ideologico, figuriamoci fuori. In questo quadro continuo a vedere molto di più l'alleanza dei programmatori (e dell'accademia) "coi capitalisti" come tu dici, che la consapevolezza di detenere un potere e di volerlo usare per forzare l'industria ad usare lavoro al posto di capitale. Nemmeno il marxismo (almeno nelle sue manifestazioni storiche) si è opposto all'uso della macchina, casomai allo sfruttamento per profitto privato. In qualsiasi retorica industrialista la macchina ha sempre "liberato" l'uomo. Nel passato pochi programmatori e un certo numero di computer hanno "liberato" stuoli di dattilograf*, telegrafist*, tipograf* e contabil*, e negli anni 50 si è ampiamente discusso dell'impatto dell'automazione sul lavoro, a prova del fatto che vi era ampia consapevolezza della trasformazione in atto. Oggi è il posto del programmatore ad essere in discussione, e domani sarà quello del trainer di modelli ML. In ognuno di questi casi il vantaggio è per chi guadagna dall'alta intensità di capitale e va a discapito da chi guadagna dal lavoro. La retorica è quella del progresso, dell'efficienza maggiore della macchina più "razionale" e della fallibilità umana: quello che dice Baudrillard, attualissimo. Se tra alcune decine di anni vi saranno programmatori (alcuni dei quali scriveranno ancora in Cobol) così come autisti di auto e camion e magazzinieri, sarà non per il successo di una lotta politica dei programmatori e autisti che avranno convinto l'industria a salvare il loro lavoro, ma per il fallimento almeno parziale delle promesse della tecnologia che sarà solo parzialmente riuscita a sostituire le categorie in questione. Comunque anche un parziale successo ripagherà l'industria degli sforzi di "ricerca". Gli articoli come quello di Matt Welsh servono a far venire l'acquolina in bocca all'industria, e a costruire la narrativa retorica per attrarre investimenti. Ti do ragione in merito alle geografie dello sviluppo software: almeno per il software f/oss [1] vi sono delle sfumature nella polarizzazione tra India e US, e l'UE si trova nel mezzo. 2) L'/eccezionalismo informatico/ e la intrinseca virtù del free software nel generare software che rispetti l'uomo. Per /eccezionalismo/ mi riferisco a quanto dici: "non puoi paragonarla con nessuna altra attività umana, se non con la lettura e la scrittura che in effetti sono le prime rivoluzioni informatiche della storia". A me pare che la scrittura di codice, se ancora oggi può assomigliare ad un artigianato, non possa sfuggire alla legge industriale dell'assimilazione formulata dalla Arendt ne /La condizione umana /(1958): The industrial revolution has replaced all workmanship with labor, and the result has been that the things of the modern world have become labor products whose natural fate is to be consumed, instead of work products which are there to be used. Come d'altra parte non sono sfuggite le altre forme di scrittura: per ogni riga "artigianale" di scrittura ve ne sono almeno 1000 "industriali" consumate ogni giorno. Il free software non cambia la natura del problema, anzi: l'industria del software proprietario, dopo un iniziale momento di sconcerto per il successo di GNU/Linux e di Netscape Navigator, ha capito che non aveva nemmeno bisogno di appropriarsi della miniera per poterla sfruttare. Google ha imparato cosi bene la lezione da aprire da subito il codice di Android e finanziare contributi. Non che io creda che sia una cosa cattiva, anzi! E' una mossa intelligente che mira a creare un ecosistema industriale catalizzando sinergia invece di appropriarsi di uno spazio, ma la licenza non ha impedito ad Android di trasformarsi in un prodotto di sorveglianza per eccellenza, ed è questo che non va. La Hacking license non impedisce di creare modelli ML a partire dal codice (incluso il vostro di MonitoraPA), ma impone di condividerli. Mossa virtuosa che non consente l'appropriazione, ma non impedisce di scavalcare la programmazione. E comunque non affronta il problema dell'impiego del modello ML che Microsoft sarà costretta a rilasciare come esito di una lite persa con MonitoraPA. 3) "Adattarsi o adattare?" Si, ma cosa manca? Premesso che rispetto molto e come sai condivido la posizione dell'hacker. Mi entusiasma Harry Tuttle di Brazil, la figura di quello che si batte per "riparare" un mondo che non sarà comunque mai a posto (il "tikkuner" [2]). Di fondo condivido quindi la posizione che suggerisci di adattare il mondo e non subire il cambiamento. Parli di introdurre bug, aggirare DRM... Certo, ma chi scrive DRM in primo luogo? Perché continua a farlo? Perché /può/ farlo? La questione non è (o almeno non solo) quali tecnologie 'buone' sviluppare nella resistenza contro quelle 'cattive', è accettare che ci sia questa guerra e dovervi impegnare così tante risorse. Se nulla cambia, come è avvenuto per il free software, l'enorme sforzo creativo di migliaia di hacker e attivisti verrà appropriato per estrarne qualcosa e lasciare lì le scorie, nella perenne illusione che la prossima battaglia cambierà /davvero/ qualcosa. Una dinamica intuita da Roland Barthes proprio nell'analizzare come il potere si nasconde nelle pieghe della lingua. GNU, Linux, Firefox sono oggi /simultaneamente/ sia l'esito della scorsa battaglia hacker contro il potere delle compagnie egemoni del software proprietario sia la risorsa gratuitamente offerta alle stesse identiche società per rinnovare la stessa identica industria. Cosa è cambiato? Il modello di business, da prodotto software a servizio di sorveglianza. Chrome è il browser più diffuso e Windows esiste ancora! Esattamente come gli argomenti delle /scorse/ campagne degli attivisti del clima sono al centro delle campagne di marketing del più sfacciato greenwashing. La prossima-cosa-buona-da-fare è cambiare l'auto e prenderla elettrica, purché non si metta in discussione una mobilità individuale palesemente insostenibile. In tutto questo quadro tutti ci dibattiamo tra quale delle conseguenze accettare, che parte prendere. Ma chi ha deciso le parti? Nessuno da quasi quarant'anni mette in discussione le premesse denunciate nel 1968 da Baudrillard e molti altri anche prima. Le premesse sono che non vi è pensiero ammesso o limiti a cosa deve/può/non può essere oggetto di industrializzazione, capitalista o meno. A mio avviso, ad esempio, le relazioni personali ed umane non debbono essere oggetto di industrializzazione. Non sono una miniera. Questi limiti risiedono nell'ordine della scala di valori e morale, non di quella tecnica che non ha alcuna risposta da dare in merito, e perciò apparentemente non possono essere posti. La conseguenza più macroscopica è che, in mancanza di futuri tra i quali scegliere e per non mettere in discussione il modello industriale preferiamo accettare il collasso dell'uomo, della società e del pianeta. Per cui ben venga l'atto di resistenza e l'hacker che vuole riparare il mondo che c'è, ma serve anche conquistarsi il permesso di pensare a premesse diverse. La società, prima di essere cibernetica, sia umana. Mille scuse per la lunghezza, ma francamente non saprei quali altre sedi se non Nexa possano accogliere dialetticamente questi pensieri che non stanno in un tweet né un toot. :-) ciao, Alberto [1] J. Wachs, M. Nitecki, W. Schueller, and A. Polleres, “The Geography of Open Source Software: Evidence from GitHub,” /Technological Forecasting and Social Change/, vol. 176, p. 121478, Mar. 2022, doi: 10.1016/j.techfore.2022.121478 <https://doi.org/10.1016/j.techfore.2022.121478>. [2] <https://nobrainnopain.org/TikkunOlam> On 27/12/22 03:26, Giacomo Tesio wrote:
Ciao Alberto,
grazie della tua risposta, profonda come sempre.
On Mon, 26 Dec 2022 17:14:07 +0100 Alberto Cammozzo wrote:
Ho qualche dubbio sulla classe dei programmatori. Se ho capito bene escludi la riduzione in schiavitù dei programmatori e sostieni che (visto che possiedono i mezzi di produzione) questi starebbero maturando una "coscienza politica di classe" tale da minacciare (come un fantasma che gira per il mondo?) le sicurezze del capitalismo della sorveglianza. Per la precisione, io ho scritto "coscienza politica" senza precisare "di classe" perché ahimé le due cose non coincidono ancora.
Il tema è complesso.
Una vera lotta politica E di classe, fra informatici e capitalisti è già corso da decenni, sebbene non venga chiamata "lotta di classe".
E' narrata come la lotta "agli hacker" (quelli "cattivi"), dal P.H.I.R.M. a Phineas Fisher, da DVDJon a RMS, da Snowden ad Assange...
Ma vista dall'altro punto di vista è anche la lotta degli informatici dotati di coscienza politica (ma non necessariamente di classe), contro il capitale che ne limita il potenziale rivoluzionario.
Per quanto ne so io, il software viene scritto prevalentemente in zone del mondo o molto ricche (come in Silicon Valley) o molto povere (come in Chennai o Bangalore), in cui i programmatori o hanno un potere contrattuale individuale molto forte, o non ne hanno affatto, ma in cui la coscienza di classe mi pare comunque debole. Quello di essere un hacker che sceglie la propria licenza è un lusso. Hai ragione: si tratta di una lotta politica e di classe sebbene solo una delle classi coinvolte ne sia pienamente consapevole: quella dei capitalisti.
Molti informatici combattono questa guerra senza nemmeno comprendere a fondo cosa li spinge, cosa li accomuna... Restringendo persino i propri strumenti di lotta!
Questo perché non hanno ancora piena consapevolezza del proprio potere. E quando ce l'hanno, spesso si allineano ai capitalisti, per le dinamiche che descrivi.
Tuttavia in Europa ed in Italia le cose sono un po' diverse. Stipendi bassi ma non bassissimi. Un minimo di cultura dei diritti. Un mix potenzialmente esplosivo in attesa di una miccia.
Forse qui questa nuova classe emergente, potrà finalmente acquisire piena coscienza di sé.
Sarebbe come dire che l'industria della musica non ha potere sui violinisti perché questi hanno il controllo del mezzo di produzione e sono coscienti del loro statuto di artisti. Anche ammettendo le premesse, una parte di loro saranno tanto ben pagati da sentirsi una elite, e gli altri tanto poco da accettare quasi qualsiasi prezzo per un ingaggio. Ci sarà anche un qualche bravo violinista che accetterà di essere molto pagato per addestrare un modello ML che interpreti qualsiasi pezzo al posto suo. L'informatica è l'infrastruttura fondamentale di questo millennio.
E' presente ovunque e cambia inesorabilmente ogni cosa che tocca.
Dalla medicina, alla finanza, alla musica, all'agricoltura...
La musica non ha questo potere e questa pervasibità, strutturale e funzionale.
Non puoi paragonarla con nessuna altra attività umana, se non con la lettura e la scrittura (che in effetti sono le prime rivoluzioni informatiche della storia).
In ogni caso. il controllo della risorsa mi pare molto ben saldo in mano a chi la controlla: non credo che l'industria del software tema nemmeno lontanamente uno sciopero dei programmatori, non mi risulta nemmeno ce ne sia mai stato uno. :-)
Meno di quanto si immagini.
E' vero, organizzare uno sciopero di programmatori è davvero difficile.
E' difficile perché, come dici tu, la nostra lotta di classe è condotta senza una piena coscienza di classe (se non da parte di una minoranza). Ma è già successo:https://invidious.weblibre.org/watch?v=0Upw6mzD7Pg
D'altro canto, lo sciopero non è lo strumento di lotta più efficiente per noi programmatori.
- Possiamo introdurre bug. - Possiamo rallentare lo sviluppo di nuovi software ("sciopero bianco" con perfect plausible deniability, perché sono i nostri cervelli che fanno la parte fondamentale del lavoro) - Possiamo scrivere software libero. - Possiamo scrivere software libero per abilitare nuove forme di lotta (pensa a uBlock Origin, a piHole, all'osservatorio di Monitora PA) - Possiamo aggirare i sistemi DRM, rendere evidente e ridicolizzare l'insicurezza strutturale dei software dei capitalisti della sorveglianza (pensa ai continui data breach...) - Possiamo aggirare la sorveglianza di massa ed insegnare a fare altrettanto
Insomma... perché dovremmo limitarci agli strumenti di lotta novecenteschi quando i nostri avversari usano pienamente e consapevolmente gli strumenti che NOI realizziamo?
Mi è parso significativo che a scrivere il pezzo che ho segnalato sia un ex accademico di Harvard ed ex Google. Lo ho segnalato perché esplicita un pensiero che ho da anni sulla natura industriale dell'"AI turn". E' significativo, certo.
Mostra quanta poca credibilità vada attribuita a chi ha a che fare con certe società. Ma l'articolo riporta semplicemente propaganda di Google & friends. Che l'autore l'abbia sentita così tante volte da crederci, può anche essere. Rimane propaganda.
Matt Welsh cerca di convincerci che possiamo sostituire interi team (in Silicon Valley o in India) con una o due persone che fanno il vero "intellectual work" (lo stampo, il modello), mentre il resto sarà fatto dalle macchine, senza nemmeno le orde di "scimmie" necessarie per il training:
The bulk of the intellectual work of getting the machine to do what one wants will be about coming up with the right examples, the right training data, and the right ways to evaluate the training process. Welsh vuole convincere gli imprenditori che potranno fare a meno di programmatori sempre meno succubi.
Che sia per ragioni politiche, etiche o per mera incapacità tecnica, troppi programmatori non fanno ciò che l'imprenditore vuole.
Non è questione di rischio imprenditoriale, ma di potere e controllo.
Welsh vuole spingere quegli imprenditori che sperano di poter fare a meno dei programmatori ad investire nelle "AI".
Personalmente non credo molto che questo renderà il lavoro di programmazione inutile, dipende troppo dai contesti e ci sono altri problemi che ancora non sono ben chiari o il cui impatto non è stato misurato, ma la promessa è questa, liberarsi della complessità e della variabilità introdotta da molti umani. Come diceva Daniela, prospetta un futuro per chiuderne altri che siano diversi.
Vedo questa spinta nel mio lavoro di programmazione, che serve potenzialmente a filtrare dati per addestrare modelli che rendano ulteriori programmazioni inutili, con la promessa che una volta azzeccato sufficientemente bene il modello, quello funzionerà per sempre e sempre bene. Anche se è evidente che questi "modelli finali" non esistono, sto pensando a qualche forma di obiezione di coscienza (una licenza che escluda l'uso per training? ogni suggerimento è benvenuto). Non che lo escluda, ma che lo renda soggetto alla licenza stessa.
Per questo in Monitora PA usiamo la Hacking License e GitHub: https://github.com/MonitoraPA/monitorapa/blob/main/LICENSE.txt
Se GitHub CopyALot distribuisse il nostro codice (cosa che speriamo di ottenere entro qualche anno) il suo modello diventerà sotto Hacking License e così tutti i software che ne includeranno i "suggerimenti".
Immaginati che succederà a quel punto... :-)
Infine, la tua proposta mi pare essere quella che se tutti sanno programmare, non ci sarà bisogno di modelli. Che ci siano o meno, farne accettare l'esecuzione sarà molto più complesso.
D'altro canto l'intera economia sarà molto diversa.
Condivido l'auspicio di una diffusa competenza di programmazione, come quella che tutti sappiano suonare il violino e tornire l'argilla: sono espressioni della creatività umana e della sua competenza. Sono manifestazioni della sua libertà. Non troppi anni fa chiunque andasse a scuola sapeva poi suonare, disegnare, usare strumenti e attrezzi: imparava ad essere umano, insomma. Ahimé, non è la stessa cosa.
Non hai bisogno di tornire l'argilla tutti i giorni. Se non sai farlo, le tue altre facoltà non ne risultano sostanzialmente ridotte. Non sapere suonare il violino non ti pone alla mercé di chi sa farlo.
Anche se non credo che la maggiore offerta di programmatori competenti possa scalfire la dinamica industriale sottostante il machine learning, che è quella di liberarsi per quanto possibile dall'umano e dall'incerto, tuttavia credo che possa almeno inceppare un'altra dinamica industriale, che è quella della generazione di una scarsità (quella di programmatori) come conseguenza del successo di un prodotto industriale (il ML). Per rimanere negli esempi precedenti: il successo della riproduzione musicale industriale riduce la domanda di orchestre e quindi di violinisti. Immagino tu stia sorvolando consapevolmente sul fatto che la programmazione statistica (aka "ML" o "AI") sia talmente incerta che nessuno se ne vuole prendere la responsabilità, per portare avanti il ragionamento dal punto di vista del povero fesso che da retta a Welsh...
Perché parliamo di una pia illusione: potranno far credere ai programmatori umani di essere sostituibili, ma non lo saranno mai.
In un'altro thread si sosteneva che il software che gestisce i freni di un auto (perché?) non dovrebbe essere sostituibile. Figurati se potremmo farlo programmare statisticamente... ad un software programmato statisticamente! :-D
In conclusione, per me il deficit non è tecnico né economico, ma morale; non è di risorse, ma di valori. Non cosa facciamo e come, ma a che fine. Sono abbastanza d'accordo.
Direi morale E culturale.
Perché l'informatica è cultura: può essere uno strumento di potere sull'uomo o di emancipazione dell'uomo.
La scelta fra i due è morale, ma la può compiere solo chi la comprende.
Baudrillard, che ha molto riflettuto anche sul sistema modello/serie, in "il sistema degli oggetti" (1968!) scrive (scusatemi la lunga citazione): Bellissima citazione che, secondo me, parla di altro. Passato.
La società cibernetica è caratterizzata da oggetti diversi dai precedenti, automatici, che definiscono gli spazi di libertà degli umani sulla base della volontà di chi li crea e diffonde.
Alcuni automatismi surrogano completamente gli esseri umani, perseguendo quel processo di alienazione cibernetica che serve a ridurre l'autonomia degli esseri umani nel sistema per aumentarne la predicibilità: https://video.linuxtrent.it/w/uGeLUW9uwuU7siCavjNnZm?start=14m10s
E questo avviene ormai fuori dal processo produttivo, nell'intimità delle nostre case.
L'unica alternativa che vedo, purtroppo, è fra l'azzeramento della autonomia individuale (della libertà vera, quella che trascende la possibilità di scegliere fra alternative offerte da altri sullo scaffale), adattandosi ed integrandosi come ingranaggi nella società cibernetica ormai catturata da pochissimi, e la massimizzazione della autonomia cibernetica individuale ("computing agency" mi suona riduttivo) con la piena consapevolezza del funzionamento degli automatismi e il conseguente rifiuto di quelli che non possiamo modificare o programmare in prima persona adattandoli a noi.
In altri termini la nostra alternativa è fra:
adattarsi alla società cibernetica costruita da altri
oppure
adattare la società cibernetica alla nostra volontà
Rispetto ad una società che esclude la maggioranza delle persone dalla partecipazione alla definizione delle sue regole, dobbiamo decidere se vogliamo adattarci o dis-adattarci, integrare o dis-integrare.
Hacker o robot. Cittadini o schiavi.
Per chi non sceglie, sceglieranno altri.
La seconda opzione, purtroppo.
A presto!
Giacomo
Ciao Albero, poni così tanti temi fondamentali su cui riflettere! On Tue, 27 Dec 2022 16:18:27 +0100 Alberto Cammozzo wrote:
La società, prima di essere cibernetica, sia umana.
Che cosa significa "umano"? Cibernetica è anzitutto l'arte di governare. E' Politica, ancorché veicolata da automatismi. L'homo sapiens sapiens è ancora un animale politico? Sin dall'homo habilis l'uomo si caratterizza per la propria capacità di estendere sé stesso attraverso strumenti di varia natura. Con l'informatica, ha scoperto di poterli creare con la parola. E ha scoperto di poterli replicare all'infinito, possedendo come demoni infernali (un time slice alla volta) gli strumenti di cui gli altri esseri umani si circondano. Con la cibernetica di Weiner ha scoperto di poterli "lasciare da soli", a reagire senza supervisione attiva da parte del proprio creatore. In quest'ottica, la cibernetica è una naturale evoluzione dell'uomo. Una evoluzione "predetta" da diverse mitologie e religioni, se ci pensi. Inevitabile? Direi di sì. Dio è Amare. L'amore non è un sentimento, ma un Verbo, un atto. Amare è sacrificare parte di sé per creare qualcosa di nuovo con altri. L'Amare permea tutta la realtà. Amano protoni e neutroni, scambiandosi gluoni per formare l'atomo. Amano gli atomi, che sacrificano elettroni per creare molecole. Amano le molecole, che si organizzano inconsapevolmente con altre per creare le cellule (e la vita). Amano le cellule di un organismo pluricellulare, che sacrificano la propria libertà (e spesso la propria vita, pensa alle cellule della epidermide) per costituire e difendere un organismo più complesso. Amano le persone, formando famiglie, comunità, stati. Persino gli stati amano, formando federazioni ed alleanze. La storia dell'umanità, così come la storia della vita su questo pianeta, nonostante tutte le sue guerre fratricide, evidenzia una direzione inesorabile: dal semplice al complesso, passando per il sacrificio di qualcosa da parte di tutti gli agenti di un livello per costituire gli agenti del livello successivo. Dio è Amare, appunto. Ma è anche un mistero, nascosto in piena vista. Per cui molti, pur di fronte all'evidenza di questo meccanismo universale che trascende persino l'identità e la vita, scelgono di fingere che la storia non abbia una direzione evidente. http://web.archive.org/web/20221228141810if_/https://i.pinimg.com/736x/fc/04... :-D Le rivoluzioni informatiche si innestano in questo processo. Tuttavia, l'inesorabile aumento di complessità può essere orientato. Così come può essere accelerato o rallentato in determinate condizioni. Il sacrificio individuale può non essere perfettamente simmetrico. La consapevolezza della sua ineluttabilità ci (mi) pone di fronte ad una scelta: lasciare che siano altri a decidere come sarà il mondo delle mie figlie o partecipare alla sua definizione? Una società cibernetica è inevitabile. QUALE società cibernetica però è questione aperta alla lotta politica. L'informatica ci può legare insieme in modo sempre più simile ai legami che legano le cellule di un organismo o gli atomi di una molecola. Una volta legati, è necessario lavoro/energia, per slegarli. Una volta legati, smettiamo di essere pienamente umani. I leviatani che costituiamo però hanno un capo e una coda. C'è qualcuno alla guida, profondamente consapevole di dove vuole arrivare e di come arrivarci. E' "umana" una società in cui i pochi opprimono la stragrande maggioranza determinando cosa ciascuno deve fare e pensare attraverso manipolazioni cognitivo comportamentali su vasta scala? Io direi di no. Perché la stragrande maggioranza degli esseri umani verrebbero ridotti ad ingranaggi di una enorme macchina. E il processo è già in corso, attraverso l'alienazione cibernetica di grandi masse. Per evitarlo dobbiamo rallentare il processo che altri accellerano e riflettere in modo creativo sul COME rendere la società cibernetica "a misura di homo sapiens sapiens", ovvero come impedire che gli esseri umani possano essere ridotti ad ingranaggi di organizzazioni superiori. In altri termini dobbiamo identificare quali caratteristiche devono avere le organizzazioni cibernetiche per non integrare l'uomo nei propri processi vitali, rendendolo appunto un'ingranaggio di un tutto. Ti posso dire quali sono le caratteristiche che ho identificato finora: - la fluidità delle organizzazioni: deve essere facile e veloce cambiare organizzazione per ogni membro - la rimozione di qualsiasi diritto / dovere attribuito all'organizzazione in quanto tale: l'abolizione della personalità giuridica come la conosciamo, per intenderci - l'introduzione di limiti superiori dinamicamente determinati alle dimensioni fondamentali delle diverse organizzazioni (a seconda del tipo): ad esempio il numero di dipendenti di una azienda, il numero di iscritti in un partito e forse persino il numero di cittadini di uno stato... ammesso che lo stato unico globale non sia più vicino di quanto immagini - la piena comprensione dell'informatica che regola la società cibernetica da parte di tutti i cittadini, precondizione della partecipazione democratica al governo di tale società cibernetica L'ultimo punto è il meno controverso (se paragonato ai precedenti), ma è quello più interessante qui in Nexa. Eppure a molti sembra utopico. D'altro canto, il presente è distopico e ne ha influenzato le menti.
Sommariamente premetto che trovo utile distinguere industrialismo e capitalismo [...]
Hai ragione, avevo semplificato eccessivamente. Tuttavia non credo che parlare di "industrialismo" fornisca un framework interpretativo molto migliore di parlare di capitalismo. (quanto meno perché i due non sono, come rilevi, ortogonali) Di solito parlo di cambio di paradigma per questa ragione. Da un paradigma economico della società, stiamo passando ad uno informatico/cibernetico. Una società cibernetica è di innumerevoli ordini di grandezza più complessa di una industriale (di cui la finanza è/era un'estensione/evoluzione). Chi controlla questa nuova complessità, decide se debba essere una società "umana" o "disumana".
1) I programmatori e la loro coscienza politica e di classe.
Ho introdotto il termine "di classe" deliberatamente, ammiccando alla terminologia marxista, ben consapevole che data l'egemonia ideologica neoliberista non esiste più nulla del genere. Fine della dialettica: niente tesi, niente antitesi, e fine anche delle ipotesi. Costruire una coscienza di classe era difficile nel paradigma ideologico, figuriamoci fuori.
Balle. :-) La fine della storia... è finita, finalmente. Le ideologie novecentesche sono inutili oggi, incapaci di modellare il presente, ma ne possiamo (e ne dobbiamo) creare di nuove. Le tesi sono implicite? Rendiamole esplicite con una poderosa lotta antitetica. Monitora PA fa proprio questo, rendendo evidente l'illegalità diffusa, l'ipocrisia e l'ignoranza relativa al GDPR e ai GAFAM. Discutiamo idee nuove, diffondendo nuove ideologie. SI PUO' FARE! ;-) E secondo me i programmatori hanno ancora qualche possibilità di acquisire una piena coscienza di classe, nonostante tutto. In fondo, noi siamo programmatori. Siamo filosofi male impiegati: che ci piaccia o meno, l'informatica è una disciplina umanistica.
A me pare che la scrittura di codice, se ancora oggi può assomigliare ad un artigianato, non possa sfuggire alla legge industriale dell'assimilazione formulata dalla Arendt ne /La condizione umana /(1958): [...] Come d'altra parte non sono sfuggite le altre forme di scrittura: per ogni riga "artigianale" di scrittura ve ne sono almeno 1000 "industriali" consumate ogni giorno.
Hai contato tutte le liste della spesa? Tutte le email? Tutti gli sms? Tutti i messaggi via IM vari? Tutte le lettere d'amore? Tutti gli appunti scritti su un foglietto? Scriviamo continuamente, tanto che definire "artigianato" la banale scrittura della lista della spesa farebbe ridere tutti. La programmazione DEVE diventare così. Un'attività banale, quotidiana, ma per tutti. Naturalmente ciò richiede stack applicativi completamente diversi da quelli attuali. E pensando alla scrittura alfabetica (inventata dai Cananei, che non sapevano scrivere) a volte temo che a persone come me e te, ormai adattate agli strumenti primitivi che siamo costretti ad usare, l'invenzione di questi stack sia preclusa. Tuttavia quello deve essere il nostro obiettivo: rendere programmazione e debugging attività quotidiane per la quasi totalità della popolazione.
Il free software non cambia la natura del problema
Purtroppo hai ragione. RMS ha compiuto un errore madornale nel costruire l'ideologia del software libero attorno al valore della Libertà, invece che a quello della Curiosità. Ma la Storia funziona così, purtroppo: ognuno di noi fa del proprio meglio, ma siamo immersi in un flusso che ci influenza enormemente. Stallman è nato e cresciuto negli USA della guerra fredda. Detto questo è ora di passare oltre: Our Curiosity will serve Humanity through Freedom, Candor and Communion. http://monitora-pa.it/LICENSE.txt
La Hacking license non impedisce di creare modelli ML a partire dal codice (incluso il vostro di MonitoraPA), ma impone di condividerli. Mossa virtuosa che non consente l'appropriazione, ma non impedisce di scavalcare la programmazione. E comunque non affronta il problema dell'impiego del modello ML che Microsoft sarà costretta a rilasciare come esito di una lite persa con MonitoraPA.
E' questo il bello della Hacking License: non serve fare una causa a Microsoft. E' sufficiente rilevare che stia distribuendo codice sotto Hacking License per prendere atto oltre ogni ragionevole dubbio che ne abbia accettato il contratto e che dunque il modello sia sotto Hacking License. Mica possiamo assumere che proprio Microsoft violerebbe mai una licenza / shrink wrap contract così chiaro e semplice! Dunque, non gli faremo causa: inizieremo semplicemente ad utilizzare TUTTI i software che incorporano codice fornito da GitHub CopyALot nei termini della Hacking License.
Di fondo condivido quindi la posizione che suggerisci di adattare il mondo e non subire il cambiamento.
Non è un suggerimento. E' la constatazione di una alternativa che abbiamo di fronte: può essere l'ultima scelta o la prima, a seconda dell'opzione selezionata. Adattarsi o (imparare ad) adattare? Ingranaggio Integrato o Persona?
Parli di introdurre bug, aggirare DRM... Certo, ma chi scrive DRM in primo luogo? Perché continua a farlo? Perché /può/ farlo?
Può farlo perché pochissimi sanno programmare e debuggare. Se tutti sapessero farlo, non proverebbero nemmeno: sarebbe tempo perso.
La questione non è (o almeno non solo) quali tecnologie 'buone' sviluppare nella resistenza contro quelle 'cattive', è accettare che ci sia questa guerra e dovervi impegnare così tante risorse.
E' una guerra in atto da decenni. Non l'abbiamo cominciata noi, ma siamo costretti a difenderci.
Se nulla cambia, come è avvenuto per il free software, l'enorme sforzo creativo di migliaia di hacker e attivisti verrà appropriato per estrarne qualcosa e lasciare lì le scorie
Appunto. Dobbiamo cambiare. Anzitutto obiettivi, perseguendo obiettivi incompatibili con l'accumulo di potere nelle sue varie forme (status, profitto etc)
In tutto questo quadro tutti ci dibattiamo tra quale delle conseguenze accettare, che parte prendere. Ma chi ha deciso le parti?
Gli hacker saranno una parte "nuova". (come "parte" almeno, sebbene esistano da millenni) Nuova anche negli obiettivi: non siamo assimilabili al proletariato cui si rivolgeva il Marxismo, ad esempio. Il controllo del capitale ci interessa il giusto, molto prioritari sono invece la condivisione della conoscenza e la libertà effettiva di studiare e sperimentare ciò che ci interessa, accrescendo la nostra conoscenza e la cultura condivisa in un circolo virtuoso.
Le premesse sono che non vi è pensiero ammesso o limiti a cosa deve/può/non può essere oggetto di industrializzazione, capitalista o meno.
A mio avviso, ad esempio, le relazioni personali ed umane non debbono essere oggetto di industrializzazione. Non sono una miniera.
Su questo siamo perfettamente d'accordo.
Questi limiti risiedono nell'ordine della scala di valori e morale, non di quella tecnica che non ha alcuna risposta da dare in merito, e perciò apparentemente non possono essere posti.
Scala di valori, morale e POLITICA. Comunque noi hacker esistiamo esattamente per questo: porre domande che nessuno si vuole porre, rendere evidenti i problemi che tutti ignorano....
La conseguenza più macroscopica è che, in mancanza di futuri tra i quali scegliere e per non mettere in discussione il modello industriale preferiamo accettare il collasso dell'uomo, della società e del pianeta.
Mancanza di futuri alternativi? Eccone uno: una società cibernetica democratica in cui ogni persona partecipa quotidianamente al governo della società umana attraverso il software che scrive, le idee che esprime etc...
Per cui ben venga l'atto di resistenza e l'hacker che vuole riparare il mondo che c'è, ma serve anche conquistarsi il permesso di pensare a premesse diverse.
La nostra non è solo resistenza: è guerriglia culturale. E come hacker, non chiediamo il permesso a nessuno. Pensiamo continuamente a premesse diverse, le condividiamo (come vedi :-D) e invitiamo a fare altrettanto. A presto! E grazie della bella chiacchierata... Giacomo PS: aggiungo due ulteriori micro riflessioni:
Mi entusiasma Harry Tuttle di Brazil, la figura di quello che si batte per "riparare" un mondo che non sarà comunque mai a posto (il "tikkuner" [2]).
La questione che pongo io è pre-etica: la scelta che ciascuno di noi si trova davanti è fra adattarsi alle macchine che lo circondano (progettate da altri per i propri personali interessi) o imparare ad adattare tali macchine alla propria volontà. Se sceglie di adattarsi, di integrarsi come un bravo ingranaggio, rinuncia completamente all'etica: le proprie credenze e le proprie scelte saranno etero-dirette. Non potrà dunque scegliere di "riparare" il mondo, renderlo migliore. Non potrà nemmeno costruirsi un'idea propria di "mondo migliore". Dal che io deduco un imperativo morale, a DIS-adattarsi, a dis-integrarsi, per non perdere completamente la propria umanità.
per non mettere in discussione il modello industriale preferiamo accettare il collasso dell'uomo, della società e del pianeta.
In effetti le tecnologie presenti sono estremamente energivore. Non escludo che il collasso del sistema militar-cibernetico possa derivare proprio dall'esaurimento delle fonti di energia.
Caro Alberto, guarda che anche qui cadiamo in pieno nella "intelligenza artificiale fatta a mano"... quindi non vedo perché non "fare a mano" direttamente il prodotto finale, cioè il software (sorgente) Alberto Cammozzo via nexa <nexa@server-nexa.polito.it> writes: [...]
Welsh parla una lingua, quella di modello/serie, ben compresa dall'industria: sarebbe come, per una manifattura di stoviglie ceramiche, acquistare una macchina per stampi e liberarsi di decine di tornitori: ne basta uno (bravo, da pagare una volta per il modello) che faccia il pezzo sul quale modellare lo stampo.
occhio che quando si usano metafore "fisiche" per cose "digitali" c'è sempre il rischio di "distorsione ottica"; so che tu lo sai ma ricordarlo non fa male seguendo la metafora, il modello delle stoviglie ceramiche (lo stampo) attualmente continua a progettarlo un umano, se volessimo fare un parallelo occorrerebbe che qualcuno proponesse all'indistria di manifattura delle stoviglie di sostituire il proprio (team di) designer umano con un modello ricavato da machine-learning in grado di generare stampi per stoviglie ceramiche conoscendo un pochino il mondo della produzione meccanica (non ceramica, ma non siamo lontani) ti assicuro che il ciclo che parte con la prototipazione (che include anche la correzione degli errori) per finire con la messa in produzuione di un pezzo (che include anche mettere a punto la catena di fornitura) sostituendo agli umani un modello di machine-learning per la progettazione dello stampo sarebbe oggi **estremamente** proibitivo ...e per non essere proibitivo un domani, la fabbrica di ceramiche dovrebbe comprare il modello da un /fornitore/ (supply chain), ma soprattutto PEDEREBBE completamente il controllo su come viene prodotto "lo stampo" (il suo core business), affidandosi completamente al fornitore del modello AI; sarebbe un po' come la situazione degli agricoltori che non sono in grado di riprodurre autonomamente i semi BREVETTATI e che non si ripoducono nel "frutto" che coltivano e per questo devono andare ogni volta a comperarli dall'industria "one ring to rule them all" :-O
L'aspettativa rivoluzionaria dell'impiego industriale del ML sta però nel fatto che se nel modello industriale tradizionale il modello serviva a generare la serie, ora si può al contrario costruire il modello da una determinata serie, per poi poterla replicare all'infinito in una nuova serie. Come dire: prendo 10 delle 57 uova Fabergé sopravvissute e ne faccio un modello per produrne industrialmente a piacere.
ah ma se è per quello secondo me già da un pezzo gli artisti umani della ceramica sono perfettamente in grado di /imitare/ uova Fabergé anche di 570 tipi diversi, darle a chi fa gli stampi e produrne industrialmente a piacere: no?
Matt Welsh cerca di convincerci che possiamo sostituire interi team (in Silicon Valley o in India) con una o due persone che fanno il vero "intellectual work" (lo stampo, il modello), mentre il resto sarà fatto dalle macchine, senza nemmeno le orde di "scimmie" necessarie per il training:
The bulk of the intellectual work of getting the machine to do what one wants will be about coming up with the right examples, the right training data, and the right ways to evaluate the training process.
con la NOTEVOLE differenza che il modello è generato da un processo di machine-learning (basato sul lavoro di quei due poveri ex-programmatori) e /quindi/ non analizzabile: quello che esce è statisticamente significativo (o meglio correlabile: basta un po' di p-hacking e si sistema tutto)... ma potrebbe generare software (binario? sorgente?) altamente bacato e/o con backdoors che i due poverelli manco si immaginano... tra l'altro, il concetto "software bacato" è **altamente** semantico e non so se un modello ML sia in grado di sintetizzarne la semantica ...andrà a finire che invece che partire "da zero" a costruirsi "right examples", "right training data" e/o "right ways to evaluate" utilizzeranno librerie di terze parti già belle che fatte: si fa normalmente nel processo di sviluppo software "tradizionale", ma non per il "core business" del software che si sta sviluppando, quancosina in genere si deve sviluppare tu conosci com'è complesso un grafo delle dipendenze di un sistema di build "tradizionale": è abbastanza intricato, non credi? Ecco, ora immagina un grafo delle dipendenze di un sistema di build di software generato da un modello ricavato da machine-learning: io mi sono spaventato :-D inoltre, ho già accennato ai problemi di riproducibilità [1] e (soprattutto!) di "bootstrappability" [2] dei sistemi di build del software: posso dire che solo se chi propone software generato da modelli AI mi spiega come risolvere quei due problemi io sono disposto a parlarne seriamente? :-O (sono spocchioso?) [...]
Vedo questa spinta nel mio lavoro di programmazione, che serve potenzialmente a filtrare dati per addestrare modelli che rendano ulteriori programmazioni inutili, con la promessa che una volta azzeccato sufficientemente bene il modello, quello funzionerà per sempre e sempre bene. Anche se è evidente che questi "modelli finali" non esistono, sto pensando a qualche forma di obiezione di coscienza (una licenza che escluda l'uso per training? ogni suggerimento è benvenuto).
l'unica obiezione di coscienza efficace è non contribuire a perseguire simili "futuri chiusi" e **spiegare perché** non possono funzionare ci abbiamo messo molti decenni ad arrivare a questo livello primitivo di informatica, cerchiamo di fare in modo di evitare di perdere tempo a perseguire illusioni di poter sostituire la "fatica di pensare" con la "fatica di calcolare" ;-)
Infine, la tua proposta mi pare essere quella che se tutti sanno programmare, non ci sarà bisogno di modelli.
Condivido l'auspicio di una diffusa competenza di programmazione, come quella che tutti sappiano suonare il violino e tornire l'argilla: sono espressioni della creatività umana e della sua competenza. Sono manifestazioni della sua libertà. Non troppi anni fa chiunque andasse a scuola sapeva poi suonare, disegnare, usare strumenti e attrezzi: imparava ad essere umano, insomma.
Ecco bravo: mica tutti diventano Gazzelloni quando imparano alle medie a suonare il flauto dolce e mica tutti diventano Pomodoro quando imparano a fare i "lavoretti" con l'argilla... ma almeno **concettualizzano** cosa significa; vorrei che sia così anche con la programmazione ...e invece sta succedendo il contrario: tra un po' alle medie spiegheranno che è inutile imparare a suonare il flauto o fare i lavoretti manuali con l'argilla perché la musica sarà suonata e le sculture saranno *plottate* da software prodotto con ML: tutto quello che i bambini dovranno fare è insegnare al computer come farlo al posto loro per mezzo di «right examples, right training data, and right ways to evaluate the training process», per poi fare doppio click e eseguire l'opera
Anche se non credo che la maggiore offerta di programmatori competenti possa scalfire la dinamica industriale sottostante il machine learning, che è quella di liberarsi per quanto possibile dall'umano e dall'incerto, tuttavia credo che possa almeno inceppare un'altra dinamica industriale, che è quella della generazione di una scarsità (quella di programmatori) come conseguenza del successo di un prodotto industriale (il ML).
per rimanere "ancorati" all'oggetto, io ancora lo devo vedere il successo di un prodotto basato su ML in grado di generare programmi: mi sono perso qualcosa? per ora è tutta speculazione sulla falsa riga di quella che negli anni '90 proconizzava un futuro in cui il "visual programming" avrebbe sostituito il "textual programming": no? [...]
In conclusione, per me il deficit non è tecnico né economico, ma morale; non è di risorse, ma di valori. Non cosa facciamo e come, ma a che fine.
io azzerderei di dire che il deficit è **sia** tecnico (che è quello che comprendo meglio, e c'è!) che economico (quindi di allocazione risorse) che morare (etico); non starei a discutere se "viene prima l'uovo o la gallina", affronterei la questione in modo olistico B-)
Baudrillard, che ha molto riflettuto anche sul sistema modello/serie, in "il sistema degli oggetti" (1968!) scrive (scusatemi la lunga citazione):
bellissima la citazione (le citazioni sono l'unica cosa da salvare del '68, :-D ), grazie! [...] saluti, 380° [1] https://reproducible-builds.org/ [2] https://bootstrappable.org/ -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Buongiorno, attenzione perché anche i programmatori, a volte, nel loro piccolo, si incazzano Alberto Cammozzo via nexa <nexa@server-nexa.polito.it> writes: [...]
<https://cacm.acm.org/magazines/2023/1/267976-the-end-of-programming/fulltext> Viewpoint The End of Programming By Matt Welsh Communications of the ACM, January 2023, Vol. 66 No. 1, Pages 34-35 10.1145/3570220
[...]
I am talking about /replacing the entire concept of writing programs with training models./ In the future, CS students are not going to need to learn such mundane skills as how to add a node to a binary tree or code in C++. That kind of education will be antiquated, like teaching engineering students how to use a slide rule.
a furia di insistere probabilmente riusciranno a convincere tutti gli studenti di informatica e, per sfinimento, tutti i docenti, che imparare a programmare in C [0] (ma metteteci dentro anche Assembler, Rust o qualsiasi altro linguaggio che consente "interazioni a basso livello") non servirà più perché non sarà "richiesto dal mercato" ...solo che a un certo punto non ci saranno più persone che sono in grado di progettare un chip a circuiti logici (CPU, GPU), kernel per poter far usare le CPU alle applicazioni; diciamo che già adesso si cominciano a vedere i promi probemini a livello applicativo (cominciate quindi a SINTETIZZARE Linus Torvalds & co stile Trascendence perché Linux non saprà più programmarlo nessuno...?!?) tra l'altro, quando e SOLO quando una applicazione di uso comune sarà interamente programmata da un modello AI allora potremmo COMINCIARE a parlare della sua qualità, del suo debugging (chi lo fa, un'altro modello AI?) e delle potenziali backdoors inserite... che mancando il sorgente nessuno sarà in grado di individuare, solo di DIVINARE lo dico in termini tecnici: come diavolo si fa anche solo a pensare di affrontare il problema chiaramente illustrato in "Reflections on Trusting Trust" [1] di Ken Thompson illustrato al mondo nel 1984 e AMPIAMENTE ignorato da quella stessa "industria" che ora straparla di modelli AI in grado di programmare [...]
The bulk of the intellectual work of getting the machine to do what one wants will be about coming up with the right examples, the right training data, and the right ways to evaluate the training process.
ROTFL: https://nooscope.ai/ [2] quindi, invece che programmazione gli studenti di informatica di oggi dovranno diventare SUPER esperti in statistica ("right ways to evaluate the training process": una robina da niente, eh :-O ) lo dico semplice semplice: si fa prima a imparare a programmare :-D
Suitably powerful models capable of generalizing via few-shot learning will require only a few good examples of the task to be performed. Massive, human-curated datasets will no longer be necessary in most cases, and most people "training" an AI model will not be running gradient descent loops in PyTorch, or anything like it. They will be teaching by example, and the machine will do the rest.
per la miseria, ha nominato proprio l'esempio PERFETTO: PyTorch... ROTFL l'ho già segnalato, lo /ribadisco/: https://pytorch.org/blog/compromised-nightly-dependency/ «Compromised PyTorch-nightly dependency chain» questo giusto come "cliffhanger" della puntata "Reflection on Trusting Trust of Untrustable (unexplainable) Sources" chiudo con una riflessione: ma cosa c'è di così spaventoso nell'apprendimento della programmazione delle macchine programmabili?!? [3] saluti, 380° [0] (la numerazione delle note parte da zero, non è casuale ;-) ) invece di perdere tempo con l'AI che programma da sola, sarebbe il caso di affrontare seriamente tutti i problemi del "undefined behaviour" connaturati in C; questi sono i problemi, santa pazienza! [1] https://www.cs.cmu.edu/~rdriley/487/papers/Thompson_1984_ReflectionsonTrusti... [2] suggerimento: ogni volta che qualcuno, anche il più intelligente degli scienziati dell'universo, sostiene che QUALSIASI attività creativa umana (programmare è una attività creativa, mettetevi il cuore in pace) può essere sostituita con AI (ristretta), invitatelo a scrivere un articolo che confuti uno per uno gli argomenti discussi in quel paper ;-) [3] ribadisco che anche la configurazione del software è una forma di programmazione -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
participants (4)
-
380° -
Alberto Cammozzo -
Daniela Tafani -
Giacomo Tesio