Buongiorno, per quanto sia innegabile che il progresso scientifico ci abbia regalato notevoli miglioramenti nel nostro stile di vita nel recente passato, io userei cautela prima di classificare come "sterili" le critiche all'Ai generativa che puntano il dito contro: - accentramento del potere in pochissime mani - sfruttamento di lavoro non degno (secondo definizione ILO) - inquinamento dell'infosfera - consumo pantagruelico di risorse, e relativo aumento delle tensioni geopolitiche per il controllo delle suddette risorse Intanto non è adamantinamente certo che siano problemi superabili senza l'abbandono dei LLM e, anche se lo fossero, la condizione necessaria per vedere lontano è l'assenza nel medio-breve di conflitti tra nazioni tali da estinguere homo sapiens o anche solo, più "modestamente", da scardinare l'attuale ordine sociale e politico (come, temo, un confronto nucleare "tattico" tra Russia e NATO, o tra USA e Cina sul controllo di Taiwan). IMO Stefano Inviato con l'email sicura [Proton Mail](https://proton.me/mail/home). lunedì 9 dicembre 2024 10:24, Giuseppe Attardi <attardi@di.unipi.it> ha scritto:
Sembra che anche tu identifichi Generative AI con AI tout court: ribadisco che l’AI come disciplina scientifica ha un ambito più vasto, che è quello di cui si è sempre occupata e che include anche ciò che dici tu. Stiamo attualmente assistendo a un passaggio dall’uso di certe tecniche ad altre. Sembra però che ci stiamo concentrando solo sui “low hanging fruit” che con queste tecniche riusciamo a cogliere e che attirano la nostra attenzione. C’è una smisurata prateria che queste tecniche aprono al nostro orizzonte e che vedremo spuntare nei prossimi anni. Purtroppo l’atteggiamento prevalente è miope, incapace di vedere lontano e si disperde in critiche sterili al presente, che viene continuamente superato dall’evoluzione della tecnologia.
—
On 7 Dec 2024, at 12:29, Alfredo Bregni <abregni@iperv.it> wrote:
Ciao, Giuseppe.
Mi permetto di contestare l'affermazione (incidentale, direi, all'interno di un lungo discorso che parla d'altro): "L'AI è una disciplina scientifica che ha tra i suoi obiettivi quella di comprendere e replicare i meccanismi che la mente umana utilizza per svolgere le sue funzioni."
E' un'affermazione corretta, "salvata" da "tra i suoi obiettivi", nel senso che l'obiettivo di cui parli ...poi se l'è dimenticato. L'AI "di oggi", per quel poco che ne capisco (o credo di capire), fa tutt'altro. I meccanismi della mente umana sono altra cosa, e un apprendimento "aperto" come quello umano non è nelle corde dell'attuale AI.
Pasticciare senza creatività su un enorme database (che si sta pure "inquinando" da fake data e dagli stessi "pasticciamenti"), oppure cristallizzare l'apprendimento in un algoritmo "perfetto" per individuare biciclette in un immagine, o per giocare a go, sono attività certamente di interesse, ma piuttosto "low level" per quello che (almeno io) vorrei chiamare "intelligenza".
A parte miei vaneggiamenti personali, secondo i quali una vera intelligenza artificiale avrebbe bisogno di un database di conoscenza (qualunque cosa la locuzione voglia dire) "plastico", concetto a cui ritengo gli informatici non abbiano nemmeno ancora pensato, mi permetto di proporre, in parallelo al test di Alan M. Touring, il "test di Robert A. Heinlein" (con "AI" al posto di "human being", e "able to know how to" al posto di "able to", ovviamente): "“A human being should be able to change a diaper, plan an invasion, butcher a hog, conn a ship, design a building, write a sonnet, balance accounts, build a wall, set a bone, comfort the dying, take orders, give orders, cooperate, act alone, solve equations, analyze a new problem, pitch manure, program a computer, cook a tasty meal, fight efficiently, die gallantly. Specialization is for insects.”
"Sembrare" intelligente -- c'è persino un intero libro, bello corposo, su come fare in dettaglio per ottenere un computer che "sembri" cosciente -- è un'iniziativa sensatissima in ambito economico-pratico (i suggerimenti -- e le correzioni automatiche -- che mi dà l'editor di testo del cellulare sono utilissime, ...tanto ci sono poi sempre io che le vaglio), ma "essere" intelligente (o, ancor più, cosciente) è un po' un'altra cosa...
----- Original Message ----- From: [Giuseppe Attardi](mailto:attardi@di.unipi.it) To: nexa@server-nexa.polito.it Sent: Saturday, December 07, 2024 10:31 AM Subject: Re: [nexa] Boston Review: "The AI We Deserve"
È apprezzabile che qualcuno si esprima in termini positivi e non soltanto critici sulle potenzialità dell’AI. Morozov inizia raccontanto il suo stupore per la sua esperienza con la Generative AI: “Without knowing a line of code, I recently pieced together an app that taps into three different AI-powered services, creating custom short stories iwith native-speaker audio. These stories are packed with tricky vocabulary and idioms tailored to the gaps in my learning.”
Poi inizia un lunghissimo discorso che riparte da prima delle origini dell’AI, per dimostrare l’asserto che l’AI è nata per scopi militari e che si porta dietro questo peccato originale per tutta la sua evoluzione fino ad oggi. Essa avrebbe uno specifico “telos”, l’obiettivo di rendere efficiente la burocrazia, eliminando il lavoro umano. Essa sarebbe lo strumento della Efficiency Lobby, che la utilizza per i fini di efficienza e di dominio dei mercati, diventando ai giorni nostri funzionale al neoliberismo.
Secondo lui ci poteva essere un diverso percorso evolutivo e qui si dilunga in elucubrazioni in cui mescola di tutto, da Herbert Simon a John McCarthy, Jean Piaget (che lui crede sia un maschio), Seymour Papert, Terry Winograd, Fernando Flores, Nicholad Negroponte, Thorstein Veblen, legandoli attraverso un oscuro articoletto di uno sconosciuto Hans Otto Storm, che avrebbe proposto l’eolithism: “Eolithism posits no predefined problems to solve, no fixed goals to pursue.” Ossia le attività umane e il progresso tecnologico avvengono per esplorazione casuale della realtà. È vero che l’esplorazione e il serendipity hanno un ruolo importante, ma ampiamente sottovalutato nel modo con cui oggi si impostano i finanziamenti alla ricerca, finalizzati attraverso progetti con obiettivi predeterminati e valutati a priori con i vituperabili KPI.
La lunghezza e articolazione del testo di Morozov, oltre alla difficoltà di riconoscere un chiaro filo conduttore, possono essere spiegati in due modi: a. Si tratta di un tipico scritto erudito da filosofo, il cui scopo è soprattutto dimostrare la propria erudizione infarcendolo di citazioni b. È stato scritto con ChatGPT.
Francamente la tesi che l’AI si sia sviluppata per le finalità di efficienza e di dominio militare ipotizzate la trovo completamente assurda. Ho lavorato per 4 decenni sull’AI partecipando a congressi e incontrando tutte le generazioni di studiosi che ci hanno lavorato, conoscendo di persona John McCarthy, Marvin Minsky, Seymour Papert, Terry Winograd, Nicholas Negroponte, oltre ad Alan Kay, l’inventore del PC. Gli ultimi due furono i promotori del citato progetto “One Laptop Per Child”, che Alan Kay presentò in anteprima a Pisa quando gli conferimmo la laurea in Informatica Honoris Causa nel 2007. Posso garantire che nessuno ha mai pensato che l’AI avesse l’obiettivo primario dell’efficienza. L’impegno era quello di capire come fare ad ottenere macchine che svolgessero compiti intelligenti, affrontando questioni fondamentali di logica, rappresentazione della conoscenza, ragionamento, pianificazione, percezione, attuazione. In particolare proprio Alan Kay concepiva il PC come strumento per aumentare le capacità umane, pensandolo proprio come strumento da fornire proprio ai ragazzi per le loro esplorazioni e libera espressione, con precisi riferimenti a Piaget e Papert. Che i finanziamenti alla ricerca su AI venissero dalla DARPA, era dovuto proprio alla difficoltà di fare accettare la disciplina dagli altri settori che dominavano le commissioni di finanziamento della NSF. Senza dimenticare che fu proprio la pesante critica di Dreyfus che portò al primo AI Winter, col blocco dei finanziamenti alla ricerca. In seguito subentrarono le aziende a finanziare i progetti nel periodo degli Expert System, che erano sì visti da loro come mezzi per risolvere problemi complessi in applicazioni commerciali. Ma anche quella vena di finanziamento si esaurì provocando il secondo AI Winter. Ciononostante le ricerche continuarono, anche seppur sottofinanziate e spesso mascherate sotto altro nome: Knowledge Representation, Information Retrieval, Soft Computing ecc. Va anche ricordato che Geoff Hinton, oggi onorato col Nobel come padre delle reti neurali, dovette lasciare Carnegie Mellon perché non trovava finanziamenti per le sue ricerche, rifugiandosi in Canada. Di recente, sono subentrati i massicci finanziamenti delle Big Tech prima alla ricerca e poi alle infrastrutture per il training e il deployment dei LLM. Questa è la vera anomalia e preoccupante deriva dell’attuale AI: la concentraziine in pochi attori dominanti per potere tecnologico e finanziario. Non ha alcun senso parlare di eolithism come possibile percorso alternativo. L’unica strada è quella di democratizzare l’AI, ossia di mettere a disposizione di tutti la possibilità di svilupparla ed utilizzarla per i propri fini, non solo per quelli del mercato.
Che le aziende si impadroniscano di ogni tecnologia per i loro propri fini che sono il profitto tramite l’efficienza è normale, ma si ribaltano i termini se si afferma che l’AI è stata orienata all’efficienza. L’AI è una disciplina scientifica che ha tra i suoi obiettivi quella di comprendere e replicare i meccanismi che la mente umana utilizza per svolgere le sue funzioni. Che sono funzioni disparate, che includono la percezione, il ragionamento, la comprensione, l’astrazione, la pianificazione, l’attuazione, ecc. ma anche compiti creativi come il racconto, la musica, il disegno, la programmazione. L’uomo stesso usa queste capacità per svolgere in maniera più efficiente i suoi compiti, ma non diremmo che il suo comportamento è guidato dalla Efficiency Lobby.
Tra l’altro, Fernando Flores e Terry Einograd, dopo la tragica conclusione del governo Allende, collaborarono costituendo un’azienda di consulenza privata, che proponeva una metodologia di analisi e di riorganizzazione dei processi aziendali, basata sugli Speech Act, ossia sulla classificazione delle interazioni tra i vari ambiti dell’attività aziendale, come espressioni liguistiche di intenti. Anche in quel caso dunque il loro lavoro sarebbe stato da catalogare come asservito alla Efficiency Lobby.
Comunque, mi sono sforzato di arrivare in fondo all’articolo di Morozov per capire quale sia la proposta di AI che lui vorrebbe. Purtroppo la conclusione è assolutamente deludente:
“The real challenge lies in cultivating the right Weltanschauung—this app does wonders!—grounded in ecological reason. On this score, the ability of AI to run ideological interference for the prevailing order, whether bureaucracy in its early days or the market today, poses the greatest threat.”
Qui addirittura si attribuisce all’AI dei poteri sulla realtà che non può avere nessuna tecnologia, ma al massimo chi la usa. Quale siano poi queste minacce, non è dato sapere. In tal caso bisogna additare chi sono i responsabili di tali minacce e a quali eventuali pericoli esse possano condurre.
—
On 6 Dec 2024, at 10:37, nexa-request@server-nexa.polito.it wrote:
https://www.bostonreview.net/forum/the-ai-we-deserve/
Critiques of artificial intelligence abound. Where’s the utopian vision for what it could be?
Evgeny Morozov