Re: [nexa] Boston Review: "The AI We Deserve"
È apprezzabile che qualcuno si esprima in termini positivi e non soltanto critici sulle potenzialità dell’AI. Morozov inizia raccontanto il suo stupore per la sua esperienza con la Generative AI: “Without knowing a line of code, I recently pieced together an app that taps into three different AI-powered services, creating custom short stories iwith native-speaker audio. These stories are packed with tricky vocabulary and idioms tailored to the gaps in my learning.” Poi inizia un lunghissimo discorso che riparte da prima delle origini dell’AI, per dimostrare l’asserto che l’AI è nata per scopi militari e che si porta dietro questo peccato originale per tutta la sua evoluzione fino ad oggi. Essa avrebbe uno specifico “telos”, l’obiettivo di rendere efficiente la burocrazia, eliminando il lavoro umano. Essa sarebbe lo strumento della Efficiency Lobby, che la utilizza per i fini di efficienza e di dominio dei mercati, diventando ai giorni nostri funzionale al neoliberismo. Secondo lui ci poteva essere un diverso percorso evolutivo e qui si dilunga in elucubrazioni in cui mescola di tutto, da Herbert Simon a John McCarthy, Jean Piaget (che lui crede sia un maschio), Seymour Papert, Terry Winograd, Fernando Flores, Nicholad Negroponte, Thorstein Veblen, legandoli attraverso un oscuro articoletto di uno sconosciuto Hans Otto Storm, che avrebbe proposto l’eolithism: “Eolithism posits no predefined problems to solve, no fixed goals to pursue.” Ossia le attività umane e il progresso tecnologico avvengono per esplorazione casuale della realtà. È vero che l’esplorazione e il serendipity hanno un ruolo importante, ma ampiamente sottovalutato nel modo con cui oggi si impostano i finanziamenti alla ricerca, finalizzati attraverso progetti con obiettivi predeterminati e valutati a priori con i vituperabili KPI. La lunghezza e articolazione del testo di Morozov, oltre alla difficoltà di riconoscere un chiaro filo conduttore, possono essere spiegati in due modi: a. Si tratta di un tipico scritto erudito da filosofo, il cui scopo è soprattutto dimostrare la propria erudizione infarcendolo di citazioni b. È stato scritto con ChatGPT. Francamente la tesi che l’AI si sia sviluppata per le finalità di efficienza e di dominio militare ipotizzate la trovo completamente assurda. Ho lavorato per 4 decenni sull’AI partecipando a congressi e incontrando tutte le generazioni di studiosi che ci hanno lavorato, conoscendo di persona John McCarthy, Marvin Minsky, Seymour Papert, Terry Winograd, Nicholas Negroponte, oltre ad Alan Kay, l’inventore del PC. Gli ultimi due furono i promotori del citato progetto “One Laptop Per Child”, che Alan Kay presentò in anteprima a Pisa quando gli conferimmo la laurea in Informatica Honoris Causa nel 2007. Posso garantire che nessuno ha mai pensato che l’AI avesse l’obiettivo primario dell’efficienza. L’impegno era quello di capire come fare ad ottenere macchine che svolgessero compiti intelligenti, affrontando questioni fondamentali di logica, rappresentazione della conoscenza, ragionamento, pianificazione, percezione, attuazione. In particolare proprio Alan Kay concepiva il PC come strumento per aumentare le capacità umane, pensandolo proprio come strumento da fornire proprio ai ragazzi per le loro esplorazioni e libera espressione, con precisi riferimenti a Piaget e Papert. Che i finanziamenti alla ricerca su AI venissero dalla DARPA, era dovuto proprio alla difficoltà di fare accettare la disciplina dagli altri settori che dominavano le commissioni di finanziamento della NSF. Senza dimenticare che fu proprio la pesante critica di Dreyfus che portò al primo AI Winter, col blocco dei finanziamenti alla ricerca. In seguito subentrarono le aziende a finanziare i progetti nel periodo degli Expert System, che erano sì visti da loro come mezzi per risolvere problemi complessi in applicazioni commerciali. Ma anche quella vena di finanziamento si esaurì provocando il secondo AI Winter. Ciononostante le ricerche continuarono, anche seppur sottofinanziate e spesso mascherate sotto altro nome: Knowledge Representation, Information Retrieval, Soft Computing ecc. Va anche ricordato che Geoff Hinton, oggi onorato col Nobel come padre delle reti neurali, dovette lasciare Carnegie Mellon perché non trovava finanziamenti per le sue ricerche, rifugiandosi in Canada. Di recente, sono subentrati i massicci finanziamenti delle Big Tech prima alla ricerca e poi alle infrastrutture per il training e il deployment dei LLM. Questa è la vera anomalia e preoccupante deriva dell’attuale AI: la concentraziine in pochi attori dominanti per potere tecnologico e finanziario. Non ha alcun senso parlare di eolithism come possibile percorso alternativo. L’unica strada è quella di democratizzare l’AI, ossia di mettere a disposizione di tutti la possibilità di svilupparla ed utilizzarla per i propri fini, non solo per quelli del mercato. Che le aziende si impadroniscano di ogni tecnologia per i loro propri fini che sono il profitto tramite l’efficienza è normale, ma si ribaltano i termini se si afferma che l’AI è stata orienata all’efficienza. L’AI è una disciplina scientifica che ha tra i suoi obiettivi quella di comprendere e replicare i meccanismi che la mente umana utilizza per svolgere le sue funzioni. Che sono funzioni disparate, che includono la percezione, il ragionamento, la comprensione, l’astrazione, la pianificazione, l’attuazione, ecc. ma anche compiti creativi come il racconto, la musica, il disegno, la programmazione. L’uomo stesso usa queste capacità per svolgere in maniera più efficiente i suoi compiti, ma non diremmo che il suo comportamento è guidato dalla Efficiency Lobby. Tra l’altro, Fernando Flores e Terry Einograd, dopo la tragica conclusione del governo Allende, collaborarono costituendo un’azienda di consulenza privata, che proponeva una metodologia di analisi e di riorganizzazione dei processi aziendali, basata sugli Speech Act, ossia sulla classificazione delle interazioni tra i vari ambiti dell’attività aziendale, come espressioni liguistiche di intenti. Anche in quel caso dunque il loro lavoro sarebbe stato da catalogare come asservito alla Efficiency Lobby. Comunque, mi sono sforzato di arrivare in fondo all’articolo di Morozov per capire quale sia la proposta di AI che lui vorrebbe. Purtroppo la conclusione è assolutamente deludente: “The real challenge lies in cultivating the right Weltanschauung—this app does wonders!—grounded in ecological reason. On this score, the ability of AI to run ideological interference for the prevailing order, whether bureaucracy in its early days or the market today, poses the greatest threat.” Qui addirittura si attribuisce all’AI dei poteri sulla realtà che non può avere nessuna tecnologia, ma al massimo chi la usa. Quale siano poi queste minacce, non è dato sapere. In tal caso bisogna additare chi sono i responsabili di tali minacce e a quali eventuali pericoli esse possano condurre. —
On 6 Dec 2024, at 10:37, nexa-request@server-nexa.polito.it wrote:
https://www.bostonreview.net/forum/the-ai-we-deserve/
Critiques of artificial intelligence abound. Where’s the utopian vision for what it could be?
Evgeny Morozov
Ciao, Giuseppe. Mi permetto di contestare l'affermazione (incidentale, direi, all'interno di un lungo discorso che parla d'altro): "L'AI è una disciplina scientifica che ha tra i suoi obiettivi quella di comprendere e replicare i meccanismi che la mente umana utilizza per svolgere le sue funzioni." E' un'affermazione corretta, "salvata" da "tra i suoi obiettivi", nel senso che l'obiettivo di cui parli ...poi se l'è dimenticato. L'AI "di oggi", per quel poco che ne capisco (o credo di capire), fa tutt'altro. I meccanismi della mente umana sono altra cosa, e un apprendimento "aperto" come quello umano non è nelle corde dell'attuale AI. Pasticciare senza creatività su un enorme database (che si sta pure "inquinando" da fake data e dagli stessi "pasticciamenti"), oppure cristallizzare l'apprendimento in un algoritmo "perfetto" per individuare biciclette in un immagine, o per giocare a go, sono attività certamente di interesse, ma piuttosto "low level" per quello che (almeno io) vorrei chiamare "intelligenza". A parte miei vaneggiamenti personali, secondo i quali una vera intelligenza artificiale avrebbe bisogno di un database di conoscenza (qualunque cosa la locuzione voglia dire) "plastico", concetto a cui ritengo gli informatici non abbiano nemmeno ancora pensato, mi permetto di proporre, in parallelo al test di Alan M. Touring, il "test di Robert A. Heinlein" (con "AI" al posto di "human being", e "able to know how to" al posto di "able to", ovviamente): "“A human being should be able to change a diaper, plan an invasion, butcher a hog, conn a ship, design a building, write a sonnet, balance accounts, build a wall, set a bone, comfort the dying, take orders, give orders, cooperate, act alone, solve equations, analyze a new problem, pitch manure, program a computer, cook a tasty meal, fight efficiently, die gallantly. Specialization is for insects.” "Sembrare" intelligente -- c'è persino un intero libro, bello corposo, su come fare in dettaglio per ottenere un computer che "sembri" cosciente -- è un'iniziativa sensatissima in ambito economico-pratico (i suggerimenti -- e le correzioni automatiche -- che mi dà l'editor di testo del cellulare sono utilissime, ...tanto ci sono poi sempre io che le vaglio), ma "essere" intelligente (o, ancor più, cosciente) è un po' un'altra cosa... ----- Original Message ----- From: Giuseppe Attardi To: nexa@server-nexa.polito.it Sent: Saturday, December 07, 2024 10:31 AM Subject: Re: [nexa] Boston Review: "The AI We Deserve" È apprezzabile che qualcuno si esprima in termini positivi e non soltanto critici sulle potenzialità dell’AI. Morozov inizia raccontanto il suo stupore per la sua esperienza con la Generative AI: “Without knowing a line of code, I recently pieced together an app that taps into three different AI-powered services, creating custom short stories iwith native-speaker audio. These stories are packed with tricky vocabulary and idioms tailored to the gaps in my learning.” Poi inizia un lunghissimo discorso che riparte da prima delle origini dell’AI, per dimostrare l’asserto che l’AI è nata per scopi militari e che si porta dietro questo peccato originale per tutta la sua evoluzione fino ad oggi. Essa avrebbe uno specifico “telos”, l’obiettivo di rendere efficiente la burocrazia, eliminando il lavoro umano. Essa sarebbe lo strumento della Efficiency Lobby, che la utilizza per i fini di efficienza e di dominio dei mercati, diventando ai giorni nostri funzionale al neoliberismo. Secondo lui ci poteva essere un diverso percorso evolutivo e qui si dilunga in elucubrazioni in cui mescola di tutto, da Herbert Simon a John McCarthy, Jean Piaget (che lui crede sia un maschio), Seymour Papert, Terry Winograd, Fernando Flores, Nicholad Negroponte, Thorstein Veblen, legandoli attraverso un oscuro articoletto di uno sconosciuto Hans Otto Storm, che avrebbe proposto l’eolithism: “Eolithism posits no predefined problems to solve, no fixed goals to pursue.” Ossia le attività umane e il progresso tecnologico avvengono per esplorazione casuale della realtà. È vero che l’esplorazione e il serendipity hanno un ruolo importante, ma ampiamente sottovalutato nel modo con cui oggi si impostano i finanziamenti alla ricerca, finalizzati attraverso progetti con obiettivi predeterminati e valutati a priori con i vituperabili KPI. La lunghezza e articolazione del testo di Morozov, oltre alla difficoltà di riconoscere un chiaro filo conduttore, possono essere spiegati in due modi: a. Si tratta di un tipico scritto erudito da filosofo, il cui scopo è soprattutto dimostrare la propria erudizione infarcendolo di citazioni b. È stato scritto con ChatGPT. Francamente la tesi che l’AI si sia sviluppata per le finalità di efficienza e di dominio militare ipotizzate la trovo completamente assurda. Ho lavorato per 4 decenni sull’AI partecipando a congressi e incontrando tutte le generazioni di studiosi che ci hanno lavorato, conoscendo di persona John McCarthy, Marvin Minsky, Seymour Papert, Terry Winograd, Nicholas Negroponte, oltre ad Alan Kay, l’inventore del PC. Gli ultimi due furono i promotori del citato progetto “One Laptop Per Child”, che Alan Kay presentò in anteprima a Pisa quando gli conferimmo la laurea in Informatica Honoris Causa nel 2007. Posso garantire che nessuno ha mai pensato che l’AI avesse l’obiettivo primario dell’efficienza. L’impegno era quello di capire come fare ad ottenere macchine che svolgessero compiti intelligenti, affrontando questioni fondamentali di logica, rappresentazione della conoscenza, ragionamento, pianificazione, percezione, attuazione. In particolare proprio Alan Kay concepiva il PC come strumento per aumentare le capacità umane, pensandolo proprio come strumento da fornire proprio ai ragazzi per le loro esplorazioni e libera espressione, con precisi riferimenti a Piaget e Papert. Che i finanziamenti alla ricerca su AI venissero dalla DARPA, era dovuto proprio alla difficoltà di fare accettare la disciplina dagli altri settori che dominavano le commissioni di finanziamento della NSF. Senza dimenticare che fu proprio la pesante critica di Dreyfus che portò al primo AI Winter, col blocco dei finanziamenti alla ricerca. In seguito subentrarono le aziende a finanziare i progetti nel periodo degli Expert System, che erano sì visti da loro come mezzi per risolvere problemi complessi in applicazioni commerciali. Ma anche quella vena di finanziamento si esaurì provocando il secondo AI Winter. Ciononostante le ricerche continuarono, anche seppur sottofinanziate e spesso mascherate sotto altro nome: Knowledge Representation, Information Retrieval, Soft Computing ecc. Va anche ricordato che Geoff Hinton, oggi onorato col Nobel come padre delle reti neurali, dovette lasciare Carnegie Mellon perché non trovava finanziamenti per le sue ricerche, rifugiandosi in Canada. Di recente, sono subentrati i massicci finanziamenti delle Big Tech prima alla ricerca e poi alle infrastrutture per il training e il deployment dei LLM. Questa è la vera anomalia e preoccupante deriva dell’attuale AI: la concentraziine in pochi attori dominanti per potere tecnologico e finanziario. Non ha alcun senso parlare di eolithism come possibile percorso alternativo. L’unica strada è quella di democratizzare l’AI, ossia di mettere a disposizione di tutti la possibilità di svilupparla ed utilizzarla per i propri fini, non solo per quelli del mercato. Che le aziende si impadroniscano di ogni tecnologia per i loro propri fini che sono il profitto tramite l’efficienza è normale, ma si ribaltano i termini se si afferma che l’AI è stata orienata all’efficienza. L’AI è una disciplina scientifica che ha tra i suoi obiettivi quella di comprendere e replicare i meccanismi che la mente umana utilizza per svolgere le sue funzioni. Che sono funzioni disparate, che includono la percezione, il ragionamento, la comprensione, l’astrazione, la pianificazione, l’attuazione, ecc. ma anche compiti creativi come il racconto, la musica, il disegno, la programmazione. L’uomo stesso usa queste capacità per svolgere in maniera più efficiente i suoi compiti, ma non diremmo che il suo comportamento è guidato dalla Efficiency Lobby. Tra l’altro, Fernando Flores e Terry Einograd, dopo la tragica conclusione del governo Allende, collaborarono costituendo un’azienda di consulenza privata, che proponeva una metodologia di analisi e di riorganizzazione dei processi aziendali, basata sugli Speech Act, ossia sulla classificazione delle interazioni tra i vari ambiti dell’attività aziendale, come espressioni liguistiche di intenti. Anche in quel caso dunque il loro lavoro sarebbe stato da catalogare come asservito alla Efficiency Lobby. Comunque, mi sono sforzato di arrivare in fondo all’articolo di Morozov per capire quale sia la proposta di AI che lui vorrebbe. Purtroppo la conclusione è assolutamente deludente: “The real challenge lies in cultivating the right Weltanschauung—this app does wonders!—grounded in ecological reason. On this score, the ability of AI to run ideological interference for the prevailing order, whether bureaucracy in its early days or the market today, poses the greatest threat.” Qui addirittura si attribuisce all’AI dei poteri sulla realtà che non può avere nessuna tecnologia, ma al massimo chi la usa. Quale siano poi queste minacce, non è dato sapere. In tal caso bisogna additare chi sono i responsabili di tali minacce e a quali eventuali pericoli esse possano condurre. — On 6 Dec 2024, at 10:37, nexa-request@server-nexa.polito.it wrote: https://www.bostonreview.net/forum/the-ai-we-deserve/ Critiques of artificial intelligence abound. Where’s the utopian vision for what it could be? Evgeny Morozov
Buongiorno, per quanto sia innegabile che il progresso scientifico ci abbia regalato notevoli miglioramenti nel nostro stile di vita nel recente passato, io userei cautela prima di classificare come "sterili" le critiche all'Ai generativa che puntano il dito contro: - accentramento del potere in pochissime mani - sfruttamento di lavoro non degno (secondo definizione ILO) - inquinamento dell'infosfera - consumo pantagruelico di risorse, e relativo aumento delle tensioni geopolitiche per il controllo delle suddette risorse Intanto non è adamantinamente certo che siano problemi superabili senza l'abbandono dei LLM e, anche se lo fossero, la condizione necessaria per vedere lontano è l'assenza nel medio-breve di conflitti tra nazioni tali da estinguere homo sapiens o anche solo, più "modestamente", da scardinare l'attuale ordine sociale e politico (come, temo, un confronto nucleare "tattico" tra Russia e NATO, o tra USA e Cina sul controllo di Taiwan). IMO Stefano Inviato con l'email sicura [Proton Mail](https://proton.me/mail/home). lunedì 9 dicembre 2024 10:24, Giuseppe Attardi <attardi@di.unipi.it> ha scritto:
Sembra che anche tu identifichi Generative AI con AI tout court: ribadisco che l’AI come disciplina scientifica ha un ambito più vasto, che è quello di cui si è sempre occupata e che include anche ciò che dici tu. Stiamo attualmente assistendo a un passaggio dall’uso di certe tecniche ad altre. Sembra però che ci stiamo concentrando solo sui “low hanging fruit” che con queste tecniche riusciamo a cogliere e che attirano la nostra attenzione. C’è una smisurata prateria che queste tecniche aprono al nostro orizzonte e che vedremo spuntare nei prossimi anni. Purtroppo l’atteggiamento prevalente è miope, incapace di vedere lontano e si disperde in critiche sterili al presente, che viene continuamente superato dall’evoluzione della tecnologia.
—
On 7 Dec 2024, at 12:29, Alfredo Bregni <abregni@iperv.it> wrote:
Ciao, Giuseppe.
Mi permetto di contestare l'affermazione (incidentale, direi, all'interno di un lungo discorso che parla d'altro): "L'AI è una disciplina scientifica che ha tra i suoi obiettivi quella di comprendere e replicare i meccanismi che la mente umana utilizza per svolgere le sue funzioni."
E' un'affermazione corretta, "salvata" da "tra i suoi obiettivi", nel senso che l'obiettivo di cui parli ...poi se l'è dimenticato. L'AI "di oggi", per quel poco che ne capisco (o credo di capire), fa tutt'altro. I meccanismi della mente umana sono altra cosa, e un apprendimento "aperto" come quello umano non è nelle corde dell'attuale AI.
Pasticciare senza creatività su un enorme database (che si sta pure "inquinando" da fake data e dagli stessi "pasticciamenti"), oppure cristallizzare l'apprendimento in un algoritmo "perfetto" per individuare biciclette in un immagine, o per giocare a go, sono attività certamente di interesse, ma piuttosto "low level" per quello che (almeno io) vorrei chiamare "intelligenza".
A parte miei vaneggiamenti personali, secondo i quali una vera intelligenza artificiale avrebbe bisogno di un database di conoscenza (qualunque cosa la locuzione voglia dire) "plastico", concetto a cui ritengo gli informatici non abbiano nemmeno ancora pensato, mi permetto di proporre, in parallelo al test di Alan M. Touring, il "test di Robert A. Heinlein" (con "AI" al posto di "human being", e "able to know how to" al posto di "able to", ovviamente): "“A human being should be able to change a diaper, plan an invasion, butcher a hog, conn a ship, design a building, write a sonnet, balance accounts, build a wall, set a bone, comfort the dying, take orders, give orders, cooperate, act alone, solve equations, analyze a new problem, pitch manure, program a computer, cook a tasty meal, fight efficiently, die gallantly. Specialization is for insects.”
"Sembrare" intelligente -- c'è persino un intero libro, bello corposo, su come fare in dettaglio per ottenere un computer che "sembri" cosciente -- è un'iniziativa sensatissima in ambito economico-pratico (i suggerimenti -- e le correzioni automatiche -- che mi dà l'editor di testo del cellulare sono utilissime, ...tanto ci sono poi sempre io che le vaglio), ma "essere" intelligente (o, ancor più, cosciente) è un po' un'altra cosa...
----- Original Message ----- From: [Giuseppe Attardi](mailto:attardi@di.unipi.it) To: nexa@server-nexa.polito.it Sent: Saturday, December 07, 2024 10:31 AM Subject: Re: [nexa] Boston Review: "The AI We Deserve"
È apprezzabile che qualcuno si esprima in termini positivi e non soltanto critici sulle potenzialità dell’AI. Morozov inizia raccontanto il suo stupore per la sua esperienza con la Generative AI: “Without knowing a line of code, I recently pieced together an app that taps into three different AI-powered services, creating custom short stories iwith native-speaker audio. These stories are packed with tricky vocabulary and idioms tailored to the gaps in my learning.”
Poi inizia un lunghissimo discorso che riparte da prima delle origini dell’AI, per dimostrare l’asserto che l’AI è nata per scopi militari e che si porta dietro questo peccato originale per tutta la sua evoluzione fino ad oggi. Essa avrebbe uno specifico “telos”, l’obiettivo di rendere efficiente la burocrazia, eliminando il lavoro umano. Essa sarebbe lo strumento della Efficiency Lobby, che la utilizza per i fini di efficienza e di dominio dei mercati, diventando ai giorni nostri funzionale al neoliberismo.
Secondo lui ci poteva essere un diverso percorso evolutivo e qui si dilunga in elucubrazioni in cui mescola di tutto, da Herbert Simon a John McCarthy, Jean Piaget (che lui crede sia un maschio), Seymour Papert, Terry Winograd, Fernando Flores, Nicholad Negroponte, Thorstein Veblen, legandoli attraverso un oscuro articoletto di uno sconosciuto Hans Otto Storm, che avrebbe proposto l’eolithism: “Eolithism posits no predefined problems to solve, no fixed goals to pursue.” Ossia le attività umane e il progresso tecnologico avvengono per esplorazione casuale della realtà. È vero che l’esplorazione e il serendipity hanno un ruolo importante, ma ampiamente sottovalutato nel modo con cui oggi si impostano i finanziamenti alla ricerca, finalizzati attraverso progetti con obiettivi predeterminati e valutati a priori con i vituperabili KPI.
La lunghezza e articolazione del testo di Morozov, oltre alla difficoltà di riconoscere un chiaro filo conduttore, possono essere spiegati in due modi: a. Si tratta di un tipico scritto erudito da filosofo, il cui scopo è soprattutto dimostrare la propria erudizione infarcendolo di citazioni b. È stato scritto con ChatGPT.
Francamente la tesi che l’AI si sia sviluppata per le finalità di efficienza e di dominio militare ipotizzate la trovo completamente assurda. Ho lavorato per 4 decenni sull’AI partecipando a congressi e incontrando tutte le generazioni di studiosi che ci hanno lavorato, conoscendo di persona John McCarthy, Marvin Minsky, Seymour Papert, Terry Winograd, Nicholas Negroponte, oltre ad Alan Kay, l’inventore del PC. Gli ultimi due furono i promotori del citato progetto “One Laptop Per Child”, che Alan Kay presentò in anteprima a Pisa quando gli conferimmo la laurea in Informatica Honoris Causa nel 2007. Posso garantire che nessuno ha mai pensato che l’AI avesse l’obiettivo primario dell’efficienza. L’impegno era quello di capire come fare ad ottenere macchine che svolgessero compiti intelligenti, affrontando questioni fondamentali di logica, rappresentazione della conoscenza, ragionamento, pianificazione, percezione, attuazione. In particolare proprio Alan Kay concepiva il PC come strumento per aumentare le capacità umane, pensandolo proprio come strumento da fornire proprio ai ragazzi per le loro esplorazioni e libera espressione, con precisi riferimenti a Piaget e Papert. Che i finanziamenti alla ricerca su AI venissero dalla DARPA, era dovuto proprio alla difficoltà di fare accettare la disciplina dagli altri settori che dominavano le commissioni di finanziamento della NSF. Senza dimenticare che fu proprio la pesante critica di Dreyfus che portò al primo AI Winter, col blocco dei finanziamenti alla ricerca. In seguito subentrarono le aziende a finanziare i progetti nel periodo degli Expert System, che erano sì visti da loro come mezzi per risolvere problemi complessi in applicazioni commerciali. Ma anche quella vena di finanziamento si esaurì provocando il secondo AI Winter. Ciononostante le ricerche continuarono, anche seppur sottofinanziate e spesso mascherate sotto altro nome: Knowledge Representation, Information Retrieval, Soft Computing ecc. Va anche ricordato che Geoff Hinton, oggi onorato col Nobel come padre delle reti neurali, dovette lasciare Carnegie Mellon perché non trovava finanziamenti per le sue ricerche, rifugiandosi in Canada. Di recente, sono subentrati i massicci finanziamenti delle Big Tech prima alla ricerca e poi alle infrastrutture per il training e il deployment dei LLM. Questa è la vera anomalia e preoccupante deriva dell’attuale AI: la concentraziine in pochi attori dominanti per potere tecnologico e finanziario. Non ha alcun senso parlare di eolithism come possibile percorso alternativo. L’unica strada è quella di democratizzare l’AI, ossia di mettere a disposizione di tutti la possibilità di svilupparla ed utilizzarla per i propri fini, non solo per quelli del mercato.
Che le aziende si impadroniscano di ogni tecnologia per i loro propri fini che sono il profitto tramite l’efficienza è normale, ma si ribaltano i termini se si afferma che l’AI è stata orienata all’efficienza. L’AI è una disciplina scientifica che ha tra i suoi obiettivi quella di comprendere e replicare i meccanismi che la mente umana utilizza per svolgere le sue funzioni. Che sono funzioni disparate, che includono la percezione, il ragionamento, la comprensione, l’astrazione, la pianificazione, l’attuazione, ecc. ma anche compiti creativi come il racconto, la musica, il disegno, la programmazione. L’uomo stesso usa queste capacità per svolgere in maniera più efficiente i suoi compiti, ma non diremmo che il suo comportamento è guidato dalla Efficiency Lobby.
Tra l’altro, Fernando Flores e Terry Einograd, dopo la tragica conclusione del governo Allende, collaborarono costituendo un’azienda di consulenza privata, che proponeva una metodologia di analisi e di riorganizzazione dei processi aziendali, basata sugli Speech Act, ossia sulla classificazione delle interazioni tra i vari ambiti dell’attività aziendale, come espressioni liguistiche di intenti. Anche in quel caso dunque il loro lavoro sarebbe stato da catalogare come asservito alla Efficiency Lobby.
Comunque, mi sono sforzato di arrivare in fondo all’articolo di Morozov per capire quale sia la proposta di AI che lui vorrebbe. Purtroppo la conclusione è assolutamente deludente:
“The real challenge lies in cultivating the right Weltanschauung—this app does wonders!—grounded in ecological reason. On this score, the ability of AI to run ideological interference for the prevailing order, whether bureaucracy in its early days or the market today, poses the greatest threat.”
Qui addirittura si attribuisce all’AI dei poteri sulla realtà che non può avere nessuna tecnologia, ma al massimo chi la usa. Quale siano poi queste minacce, non è dato sapere. In tal caso bisogna additare chi sono i responsabili di tali minacce e a quali eventuali pericoli esse possano condurre.
—
On 6 Dec 2024, at 10:37, nexa-request@server-nexa.polito.it wrote:
https://www.bostonreview.net/forum/the-ai-we-deserve/
Critiques of artificial intelligence abound. Where’s the utopian vision for what it could be?
Evgeny Morozov
Salve Giuseppe, On Mon, 9 Dec 2024 10:24:09 +0100 Giuseppe Attardi wrote:
ribadisco che l’AI come disciplina scientifica ha un ambito più vasto
no, la "intelligenza artificiale" non è una disciplina scientifica, più di quanto non lo sia la fisiologia degli unicorni, sebbene quest'ultima sia nettamente meno finanziata. E' (ad essere generosi) un'ipotesi di studio. Ipotesi ben lungi dall'essere dimostrata scientificamente. [1] Il fatto che permetta di ottenere notevoli finanziamenti dai potenti di turno non la rende "disciplina scientifica" più di quanto non fosse, ai suoi tempi, l'alchimia. La completa sospensione dello scetticismo razionale che caratterizza i fautori della "intelligenza artificiale" dovrebbe essere sufficiente a svelarne la natura. Banalmente, di fronte agli LLM, parlano di "AI generativa" invece di ovvia compressione lossy. E la cosa tragicomica è che sono talmente allucinati da attribuire allucinazioni ad un software pur di non affrontare le proprie! :-) Forse intendevi parlare dell'informatica? L'informatica è certamente una disciplina, che studia l'informazione, come possa essere trasferita, preservata, rappresentata, interpretata e trasformata nonché l'insieme delle tecniche che applicano tale conoscenza. Non la definirei però una disciplina scientifica, non solo perché non applica quasi mai (mai?) il metodo scientifico, bensì una disciplina umanistica, perché l'informazione esiste solo nella mente umana come esperienza soggettiva di pensiero comunicabile. Però è certamente una disciplina a sé stante, di cui altre discipline (spesso più antiche) sono specializzazioni. Ad esempio l'aritmetica, che si focalizza su determinati tipi di informazioni che chiamiamo "numeri". In tal caso, siamo d'accordo: è una disciplina molto più vasta. Forse, se siamo fortunati, una volta curata l'allucinazione collettiva della "intelligenza artificiale", vedremo finalmente l'informatica progredire oltre i geroglifici! Giacomo [1] e no, ottimizzare un software affinché possa _sembrare_ intelligente ad un essere umano è utile a dimostrare i limiti cognitivi di quell'essere umano che, ad esempio, non avendo mai letto tutto il web, non potrà riconoscere i lunghi stralci riprodotti verbatim negli output, ma non dimostra nulla sull'intelligenza della macchina, né sulla scientificità dell'approccio (che anzi, un sano scetticismo scientifico ricondurrebbe ad un inganno in malafede).
Caro Giuseppe, credo che lo scritto di Morozov (e le risposte ad esso) possa essere letto in modo meno critico, riconoscendogli lo sforzo - che può essere più o meno riuscito - di raccordare le esperienze che hanno portato all'attuale situazione con una alternativa che non si è presentata, non per motivi tecnici, ma politico-economici. Lo stesso è stato detto (in modo più strutturato) da Christopher Kelty (Two Bits, 2008) parlando di delle culture alternative che hanno formato e deviato il free software. L'attuale traiettoria, guidata (più ancora che dall'efficientismo industrialista) dalla ricerca sregolata di profitto tradisce quello che di nobile si trovava nei padri della cibernetica, tra i quali va annoverato (a dirlo è Ernst Von Glasersfeld) il noto psicologo, pedagogista e cibernetico Jean Piaget. Il ritorno agli autori originari forse può aiutarci a rivendicare valori, rimagliare lo strappo e immaginare un futuro dell'umanità diverso da quello che stiamo vivendo. Un caro saluto, Alberto On 07/12/24 10:31, Giuseppe Attardi wrote:
È apprezzabile che qualcuno si esprima in termini positivi e non soltanto critici sulle potenzialità dell’AI. Morozov inizia raccontanto il suo stupore per la sua esperienza con la Generative AI: “Without knowing a line of code, I recently pieced together an app that taps into three different AI-powered services, creating custom short stories iwith native-speaker audio. These stories are packed with tricky vocabulary and idioms tailored to the gaps in my learning.”
Poi inizia un lunghissimo discorso che riparte da prima delle origini dell’AI, per dimostrare l’asserto che l’AI è nata per scopi militari e che si porta dietro questo peccato originale per tutta la sua evoluzione fino ad oggi. Essa avrebbe uno specifico “telos”, l’obiettivo di rendere efficiente la burocrazia, eliminando il lavoro umano. Essa sarebbe lo strumento della Efficiency Lobby, che la utilizza per i fini di efficienza e di dominio dei mercati, diventando ai giorni nostri funzionale al neoliberismo.
Secondo lui ci poteva essere un diverso percorso evolutivo e qui si dilunga in elucubrazioni in cui mescola di tutto, da Herbert Simon a John McCarthy, Jean Piaget (che lui crede sia un maschio), Seymour Papert, Terry Winograd, Fernando Flores, Nicholad Negroponte, Thorstein Veblen, legandoli attraverso un oscuro articoletto di uno sconosciuto Hans Otto Storm, che avrebbe proposto l’eolithism: “Eolithism posits no predefined problems to solve, no fixed goals to pursue.” Ossia le attività umane e il progresso tecnologico avvengono per esplorazione casuale della realtà. È vero che l’esplorazione e il serendipity hanno un ruolo importante, ma ampiamente sottovalutato nel modo con cui oggi si impostano i finanziamenti alla ricerca, finalizzati attraverso progetti con obiettivi predeterminati e valutati a priori con i vituperabili KPI.
La lunghezza e articolazione del testo di Morozov, oltre alla difficoltà di riconoscere un chiaro filo conduttore, possono essere spiegati in due modi: a. Si tratta di un tipico scritto erudito da filosofo, il cui scopo è soprattutto dimostrare la propria erudizione infarcendolo di citazioni b. È stato scritto con ChatGPT.
Francamente la tesi che l’AI si sia sviluppata per le finalità di efficienza e di dominio militare ipotizzate la trovo completamente assurda. Ho lavorato per 4 decenni sull’AI partecipando a congressi e incontrando tutte le generazioni di studiosi che ci hanno lavorato, conoscendo di persona John McCarthy, Marvin Minsky, Seymour Papert, Terry Winograd, Nicholas Negroponte, oltre ad Alan Kay, l’inventore del PC. Gli ultimi due furono i promotori del citato progetto “One Laptop Per Child”, che Alan Kay presentò in anteprima a Pisa quando gli conferimmo la laurea in Informatica Honoris Causa nel 2007. Posso garantire che nessuno ha mai pensato che l’AI avesse l’obiettivo primario dell’efficienza. L’impegno era quello di capire come fare ad ottenere macchine che svolgessero compiti intelligenti, affrontando questioni fondamentali di logica, rappresentazione della conoscenza, ragionamento, pianificazione, percezione, attuazione. In particolare proprio Alan Kay concepiva il PC come strumento per aumentare le capacità umane, pensandolo proprio come strumento da fornire proprio ai ragazzi per le loro esplorazioni e libera espressione, con precisi riferimenti a Piaget e Papert. Che i finanziamenti alla ricerca su AI venissero dalla DARPA, era dovuto proprio alla difficoltà di fare accettare la disciplina dagli altri settori che dominavano le commissioni di finanziamento della NSF. Senza dimenticare che fu proprio la pesante critica di Dreyfus che portò al primo AI Winter, col blocco dei finanziamenti alla ricerca. In seguito subentrarono le aziende a finanziare i progetti nel periodo degli Expert System, che erano sì visti da loro come mezzi per risolvere problemi complessi in applicazioni commerciali. Ma anche quella vena di finanziamento si esaurì provocando il secondo AI Winter. Ciononostante le ricerche continuarono, anche seppur sottofinanziate e spesso mascherate sotto altro nome: Knowledge Representation, Information Retrieval, Soft Computing ecc. Va anche ricordato che Geoff Hinton, oggi onorato col Nobel come padre delle reti neurali, dovette lasciare Carnegie Mellon perché non trovava finanziamenti per le sue ricerche, rifugiandosi in Canada. Di recente, sono subentrati i massicci finanziamenti delle Big Tech prima alla ricerca e poi alle infrastrutture per il training e il deployment dei LLM. Questa è la vera anomalia e preoccupante deriva dell’attuale AI: la concentraziine in pochi attori dominanti per potere tecnologico e finanziario. Non ha alcun senso parlare di eolithism come possibile percorso alternativo. L’unica strada è quella di democratizzare l’AI, ossia di mettere a disposizione di tutti la possibilità di svilupparla ed utilizzarla per i propri fini, non solo per quelli del mercato.
Che le aziende si impadroniscano di ogni tecnologia per i loro propri fini che sono il profitto tramite l’efficienza è normale, ma si ribaltano i termini se si afferma che l’AI è stata orienata all’efficienza. L’AI è una disciplina scientifica che ha tra i suoi obiettivi quella di comprendere e replicare i meccanismi che la mente umana utilizza per svolgere le sue funzioni. Che sono funzioni disparate, che includono la percezione, il ragionamento, la comprensione, l’astrazione, la pianificazione, l’attuazione, ecc. ma anche compiti creativi come il racconto, la musica, il disegno, la programmazione. L’uomo stesso usa queste capacità per svolgere in maniera più efficiente i suoi compiti, ma non diremmo che il suo comportamento è guidato dalla Efficiency Lobby.
Tra l’altro, Fernando Flores e Terry Einograd, dopo la tragica conclusione del governo Allende, collaborarono costituendo un’azienda di consulenza privata, che proponeva una metodologia di analisi e di riorganizzazione dei processi aziendali, basata sugli Speech Act, ossia sulla classificazione delle interazioni tra i vari ambiti dell’attività aziendale, come espressioni liguistiche di intenti. Anche in quel caso dunque il loro lavoro sarebbe stato da catalogare come asservito alla Efficiency Lobby.
Comunque, mi sono sforzato di arrivare in fondo all’articolo di Morozov per capire quale sia la proposta di AI che lui vorrebbe. Purtroppo la conclusione è assolutamente deludente:
“The real challenge lies in cultivating the right /Weltanschauung/—this app does wonders!—grounded in ecological reason. On this score, the ability of AI to run ideological interference for the prevailing order, whether bureaucracy in its early days or the market today, poses the greatest threat.”
Qui addirittura si attribuisce all’AI dei poteri sulla realtà che non può avere nessuna tecnologia, ma al massimo chi la usa. Quale siano poi queste minacce, non è dato sapere. In tal caso bisogna additare chi sono i responsabili di tali minacce e a quali eventuali pericoli esse possano condurre.
—
On 6 Dec 2024, at 10:37, nexa-request@server-nexa.polito.it wrote:
https://www.bostonreview.net/forum/the-ai-we-deserve/
Critiques of artificial intelligence abound. Where’s the utopian vision for what it could be?
Evgeny Morozov
Se ci fosse stata una "Lobby dell'Umanità" oltre alla "Lobby dell'Efficienza", la storia dell'AI sarebbe stata diversa? chiede Morozov. A questa domanda controfattuale (dunque speculativa) segue una digressione sicuramente gradevole ma un po' oziosa, come osserva Winograd nella sua risposta e anche Beppe qui tra noi. Il punto non è che potremmo usare la generatività come strumento di liberazione dal *telos* (lo pensavano anche i cibernetici come Calvino in tempi non sospetti; Brian Eno menziona i suoi vecchi esperimenti musicali con le catene di Markov, insomma nulla di particolarmente nuovo), ma cosa possiamo fare in concreto per assicurare che le nuove tecnologie si sviluppino nel senso della disponibilità, della apertura, della sostenibilità. Per quanto concerne le finalità, ognuno - fatalmente - avrà le sue, e se quelle sociali prevarranno su quelle del profitto si dovrà all'intelligenza politica (se ce l'abbiamo), non a quella artificiale, e neppure all'autocompiacimento qualche *flaneur *digitale. Ciò che racconta Morozov mi fa pensare a quella che Derrida chiamò *hauntology, *la nostalgia per un futuro che non c'è stato ma che continua ad aggirarsi come uno spettro (Spettri di Marx, 1993). Per fortuna Flores e Winograd sono ancora vivi e gli rispondono :-) Buona serata, G. On Sat, 7 Dec 2024 at 13:13, Alberto Cammozzo via nexa < nexa@server-nexa.polito.it> wrote:
Caro Giuseppe,
credo che lo scritto di Morozov (e le risposte ad esso) possa essere letto in modo meno critico, riconoscendogli lo sforzo - che può essere più o meno riuscito - di raccordare le esperienze che hanno portato all'attuale situazione con una alternativa che non si è presentata, non per motivi tecnici, ma politico-economici.
Lo stesso è stato detto (in modo più strutturato) da Christopher Kelty (Two Bits, 2008) parlando di delle culture alternative che hanno formato e deviato il free software.
L'attuale traiettoria, guidata (più ancora che dall'efficientismo industrialista) dalla ricerca sregolata di profitto tradisce quello che di nobile si trovava nei padri della cibernetica, tra i quali va annoverato (a dirlo è Ernst Von Glasersfeld) il noto psicologo, pedagogista e cibernetico Jean Piaget.
Il ritorno agli autori originari forse può aiutarci a rivendicare valori, rimagliare lo strappo e immaginare un futuro dell'umanità diverso da quello che stiamo vivendo.
Un caro saluto,
Alberto
On 07/12/24 10:31, Giuseppe Attardi wrote:
È apprezzabile che qualcuno si esprima in termini positivi e non soltanto critici sulle potenzialità dell’AI. Morozov inizia raccontanto il suo stupore per la sua esperienza con la Generative AI: “Without knowing a line of code, I recently pieced together an app that taps into three different AI-powered services, creating custom short stories iwith native-speaker audio. These stories are packed with tricky vocabulary and idioms tailored to the gaps in my learning.”
Poi inizia un lunghissimo discorso che riparte da prima delle origini dell’AI, per dimostrare l’asserto che l’AI è nata per scopi militari e che si porta dietro questo peccato originale per tutta la sua evoluzione fino ad oggi. Essa avrebbe uno specifico “telos”, l’obiettivo di rendere efficiente la burocrazia, eliminando il lavoro umano. Essa sarebbe lo strumento della Efficiency Lobby, che la utilizza per i fini di efficienza e di dominio dei mercati, diventando ai giorni nostri funzionale al neoliberismo.
Secondo lui ci poteva essere un diverso percorso evolutivo e qui si dilunga in elucubrazioni in cui mescola di tutto, da Herbert Simon a John McCarthy, Jean Piaget (che lui crede sia un maschio), Seymour Papert, Terry Winograd, Fernando Flores, Nicholad Negroponte, Thorstein Veblen, legandoli attraverso un oscuro articoletto di uno sconosciuto Hans Otto Storm, che avrebbe proposto l’eolithism: “Eolithism posits no predefined problems to solve, no fixed goals to pursue.” Ossia le attività umane e il progresso tecnologico avvengono per esplorazione casuale della realtà. È vero che l’esplorazione e il serendipity hanno un ruolo importante, ma ampiamente sottovalutato nel modo con cui oggi si impostano i finanziamenti alla ricerca, finalizzati attraverso progetti con obiettivi predeterminati e valutati a priori con i vituperabili KPI.
La lunghezza e articolazione del testo di Morozov, oltre alla difficoltà di riconoscere un chiaro filo conduttore, possono essere spiegati in due modi: a. Si tratta di un tipico scritto erudito da filosofo, il cui scopo è soprattutto dimostrare la propria erudizione infarcendolo di citazioni b. È stato scritto con ChatGPT.
Francamente la tesi che l’AI si sia sviluppata per le finalità di efficienza e di dominio militare ipotizzate la trovo completamente assurda. Ho lavorato per 4 decenni sull’AI partecipando a congressi e incontrando tutte le generazioni di studiosi che ci hanno lavorato, conoscendo di persona John McCarthy, Marvin Minsky, Seymour Papert, Terry Winograd, Nicholas Negroponte, oltre ad Alan Kay, l’inventore del PC. Gli ultimi due furono i promotori del citato progetto “One Laptop Per Child”, che Alan Kay presentò in anteprima a Pisa quando gli conferimmo la laurea in Informatica Honoris Causa nel 2007. Posso garantire che nessuno ha mai pensato che l’AI avesse l’obiettivo primario dell’efficienza. L’impegno era quello di capire come fare ad ottenere macchine che svolgessero compiti intelligenti, affrontando questioni fondamentali di logica, rappresentazione della conoscenza, ragionamento, pianificazione, percezione, attuazione. In particolare proprio Alan Kay concepiva il PC come strumento per aumentare le capacità umane, pensandolo proprio come strumento da fornire proprio ai ragazzi per le loro esplorazioni e libera espressione, con precisi riferimenti a Piaget e Papert. Che i finanziamenti alla ricerca su AI venissero dalla DARPA, era dovuto proprio alla difficoltà di fare accettare la disciplina dagli altri settori che dominavano le commissioni di finanziamento della NSF. Senza dimenticare che fu proprio la pesante critica di Dreyfus che portò al primo AI Winter, col blocco dei finanziamenti alla ricerca. In seguito subentrarono le aziende a finanziare i progetti nel periodo degli Expert System, che erano sì visti da loro come mezzi per risolvere problemi complessi in applicazioni commerciali. Ma anche quella vena di finanziamento si esaurì provocando il secondo AI Winter. Ciononostante le ricerche continuarono, anche seppur sottofinanziate e spesso mascherate sotto altro nome: Knowledge Representation, Information Retrieval, Soft Computing ecc. Va anche ricordato che Geoff Hinton, oggi onorato col Nobel come padre delle reti neurali, dovette lasciare Carnegie Mellon perché non trovava finanziamenti per le sue ricerche, rifugiandosi in Canada. Di recente, sono subentrati i massicci finanziamenti delle Big Tech prima alla ricerca e poi alle infrastrutture per il training e il deployment dei LLM. Questa è la vera anomalia e preoccupante deriva dell’attuale AI: la concentraziine in pochi attori dominanti per potere tecnologico e finanziario. Non ha alcun senso parlare di eolithism come possibile percorso alternativo. L’unica strada è quella di democratizzare l’AI, ossia di mettere a disposizione di tutti la possibilità di svilupparla ed utilizzarla per i propri fini, non solo per quelli del mercato.
Che le aziende si impadroniscano di ogni tecnologia per i loro propri fini che sono il profitto tramite l’efficienza è normale, ma si ribaltano i termini se si afferma che l’AI è stata orienata all’efficienza. L’AI è una disciplina scientifica che ha tra i suoi obiettivi quella di comprendere e replicare i meccanismi che la mente umana utilizza per svolgere le sue funzioni. Che sono funzioni disparate, che includono la percezione, il ragionamento, la comprensione, l’astrazione, la pianificazione, l’attuazione, ecc. ma anche compiti creativi come il racconto, la musica, il disegno, la programmazione. L’uomo stesso usa queste capacità per svolgere in maniera più efficiente i suoi compiti, ma non diremmo che il suo comportamento è guidato dalla Efficiency Lobby.
Tra l’altro, Fernando Flores e Terry Einograd, dopo la tragica conclusione del governo Allende, collaborarono costituendo un’azienda di consulenza privata, che proponeva una metodologia di analisi e di riorganizzazione dei processi aziendali, basata sugli Speech Act, ossia sulla classificazione delle interazioni tra i vari ambiti dell’attività aziendale, come espressioni liguistiche di intenti. Anche in quel caso dunque il loro lavoro sarebbe stato da catalogare come asservito alla Efficiency Lobby.
Comunque, mi sono sforzato di arrivare in fondo all’articolo di Morozov per capire quale sia la proposta di AI che lui vorrebbe. Purtroppo la conclusione è assolutamente deludente:
“The real challenge lies in cultivating the right *Weltanschauung*—this app does wonders!—grounded in ecological reason. On this score, the ability of AI to run ideological interference for the prevailing order, whether bureaucracy in its early days or the market today, poses the greatest threat.”
Qui addirittura si attribuisce all’AI dei poteri sulla realtà che non può avere nessuna tecnologia, ma al massimo chi la usa. Quale siano poi queste minacce, non è dato sapere. In tal caso bisogna additare chi sono i responsabili di tali minacce e a quali eventuali pericoli esse possano condurre.
—
On 6 Dec 2024, at 10:37, nexa-request@server-nexa.polito.it wrote:
https://www.bostonreview.net/forum/the-ai-we-deserve/
Critiques of artificial intelligence abound. Where’s the utopian vision for what it could be?
Evgeny Morozov
In risposta a Guido Vetere, che ha scritto...
si dovrà all'intelligenza politica (se ce l'abbiamo)
...ricordo che la costante universale della storia è la predazione / sfruttamento / manipolazione (della quale la guerra è solo il più triste esempio), e che quindi di "intelligenza politica" ne avremo bisogno anche troppo. La vera domanda è se questa possa essere più "elusiva" di quella artificiale, ...e temo fortemente la risposta.
participants (7)
-
abregni -
Alberto Cammozzo -
Alfredo Bregni -
Giacomo Tesio -
Giuseppe Attardi -
Guido Vetere -
Stefano Borroni Barale