Re: [nexa] Criti-hype di Harari
Purtroppo sono in troppi a parlare di tecnologie senza saper distinguere e questo crea spesso confusione. Harari non è da meno. "Social media was the first contact between A.I. and humanity, and humanity lost. “ No, i social media usano tecniche di Recommender System, che nessuno classificherebbe come AI: rientrano nel settore dell’Information Retrieval e utilizzano principalmente tecniche statistiche e di calcolo algebrico (Principal Component Analysis). "Large language models are our second contact with A.I.” Questi sono AI, ma sono solo strumenti, non applicazioni, come i Social Media. Le due situazioni non sono paragonabili. Difatti Harari stesso dice che "the new A.I. capacities will again be used to gain profit and power, even if it inadvertently destroys the foundations of our society.” Corretto, ma quali siano le situazioni in cui verranno impiegati dipenderà dai fini di coloro che le usano, che NON sono l'AI stessa, ma sono banalissime aziende tecnologiche votate al profitto, guidate da banalissime persone umane. Il problem siamo NOI umani e non la tecnologia. La tecnologia viene antropizzata, affidandole capacità di volere ("AI is seizing the master key”), penoso per un filosofo fare questo tipo di confusione: “[AI] can now hack and manipulate the operating system of civilization. ." — Beppe PS. L’esempio iniziale dell’affidabilità della tecnologia aerea è calzante, ma nel senso opposto. Il celebre Boing 737 Max era stato progettato con un software di controllo dell’instabilità, necessario per aggiustare un progetto affrettato e mal riuscito, per contrastare il successo di Airbus. L’azienda e il CdA lo sapeva e mandarono l’aereo in esercizio nonostante violasse le norme relative all’addestramento dei piloti. A coloro che salivano sull’aereo avrebbero dovuto chiedere esattamente questo: "you are boarding an airplane, half the engineers who built it tell you there is a 10 percent chance the plane will crash, killing you and everyone else on it.” Ma non lo fecero per non perdere quote di mercato e guadagni. Anche in quel caso l’errore era nelle persone, che scelsero il guadagno rispetto alla salvaguardia dell’incolumità. Nessuno direbbe che la colpa era del software di controllo, come quando ora si addossano colpe eventuali alla tecnologia, in questo caso all’AI, "before it masters us”.
On 25 Mar 2023, at 12:00, <nexa-request@server-nexa.polito.it> <nexa-request@server-nexa.polito.it> wrote:
Date: Sat, 25 Mar 2023 07:11:58 +0000 From: Daniela Tafani <daniela.tafani@unipi.it <mailto:daniela.tafani@unipi.it>> To: "nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>" <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> Subject: [nexa] Criti-hype di Harari Message-ID: <57d538ca2d104d2b83d75c39e28b9f5f@unipi.it <mailto:57d538ca2d104d2b83d75c39e28b9f5f@unipi.it>> Content-Type: text/plain; charset="windows-1252"
Buongiorno.
Ieri il New York Times ha pubblicato un articolo di Yuval Harari e altri:
<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303251100030698727...>
Non lo segnalo per invitare a leggerlo, ma solo per constatare che anche al New York Times devono essersi vergognati del consueto miscuglio di toni profetici e contenuti hype travestiti da pensiero critico*.
Il titolo iniziale, infatti, era
If We Don’t Master A.I., It Will Master Us
<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303251100030698727...>
e dopo qualche ora è diventato
You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills.
Buon fine settimana,
Daniela
*Cfr. Lee Vinsel, <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303251100030698727...>
Meredith Whittaker, <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202303251100030698727...>
Il 27/03/23 10:48, Giuseppe Attardi ha scritto:
[...] Il problem siamo NOI umani e non la tecnologia.
Concordo particolarmente sull'asserzione precedente. Ora, assodato che non è possibile premere RESET, che si fa? Come si puo' fare un passettino in avanti? Idee? suggerimenti? Bye, DV -- Damiano Verzulli e-mail: damiano@verzulli.it --- possible?ok:while(!possible){open_mindedness++} --- "...I realized that free software would not generate the kind of income that was needed. Maybe in USA or Europe, you may be able to get a well paying job as a free software developer, but not here [in Africa]..." -- Guido Sohne - 1973-2008 http://ole.kenic.or.ke/pipermail/skunkworks/2008-April/005989.html
On 27/03/23 10:48, Giuseppe Attardi wrote:
"the new A.I. capacities will again be used to gain profit and power, even if it inadvertently destroys the foundations of our society.”
Corretto, ma quali siano le situazioni in cui verranno impiegati dipenderà dai fini di coloro che le usano, che NON sono l'AI stessa, ma sono banalissime aziende tecnologiche votate al profitto, guidate da banalissime persone umane. Il problem siamo NOI umani e non la tecnologia.
La tecnologia viene antropizzata, affidandole capacità di volere ("AI is seizing the master key”), penoso per un filosofo fare questo tipo di confusione:
“[AI] can now hack and manipulate the operating system of civilization. ."
Credo che Harari, disciplinarmente, si presenti come storico e non come studioso di filosofia, per quel che conta. Sul rapporto fra le tecnologia e gli esseri umani forse vale però ancora la pena citare qualcuno che conosceva ciò di cui parlava, Joseph Weizenbaum, che in "Computer Power and Human Reason", ch. I pp. 37-38 (1976) scriveva: "Similarly, a highway permits people to travel between the geographical centers it connects, but, because of the side effects that it and other factors synergistically engender, it imprisons poor people in inner cities as effectively as if the cities were walled in. The mass-communication media are sometimes said to have reduced the earth to a global village and to have enabled national and even global town meetings. But, in contrast to the traditional New England town meeting which was—and remains so in my home town—an exercise in participatory politics, the mass media permit essentially no talking back. Like highways and automobiles, ***they enable the society to articulate entirely new forms of social action, but at the same time they irreversibly disable formerly available modes of social behavior***." Come le autostrade i computer, proseguiva Weizenbaum, fanno qualcosa di simile. Introducono nuove possibilità, e allo stesso tempo ne escludono altre: "a computing system that permits the asking of only certain kinds of questions, that accepts only certain kinds of "data," and that cannot even in principle be understood by those who rely on it, such a computing system has effectively closed many doors that were open before it was installed." Questo, naturalmente, non implica che la tecnologia prenda decisioni e le si possa imputare una responsabilità morale. Implica, però, che esseri finiti che fanno scelte tecnologiche o subiscono quelle altrui, in un mondo finito, producono ambienti che incorporano in sé delle decisioni e delle linee di condotta, creando e distruggendo possibilità d'azione. Idealmente, il problema siamo noi umani e le nostre scelte. Pragmaticamente, però, in quanto le scelte passate determinano strutture e infrastrutture, per chi viene dopo il problema è anche la tecnologia "vigente" con cui si trova ad avere a che fare: una tecnologia che incorpora una sua politica, talvolta perfino contro la volontà consapevole di chi l'ha progettata e messa in atto - come ebbe a rendersi conto lo stesso Weizenbaum con la sua ELIZA. Stando così le cose, forse non è ozioso chiedersi: - quali possibilità d'azione offrono in più i SALAMI? - a chi lo offrono? - quali possibilità invece precludono? - a chi le precludono? - chi e perché è interessato a usarle e a farle usare? - le conseguenze che la loro adozione produce sono (facilmente) reversibili o no? ...e così via. Daniela Tafani ha tenuto, su questo tema, un seminario per "Etica digitale" del quale non so se sia già accessibile la registrazione, in cui ha preso le mosse da un articolo solo di poco posteriore al libro di Weizenbaum: https://cedi.umd.edu/inst-466-do-artifacts-have-politics/ che discute una serie di esempi di tecnologie con politiche incorporate. Alcuni sono ovvi - quali la bomba atomica -, altri meno. Buona lettura, MCP
Buongiorno, il contributo sostanzioso di Maria Chiara / Weizenbaum mi permette di commentare, senza dilungarmi, quanto diceva Beppe e, così, anche rispondere, almeno in parte, a Damiano. Beppe, riprendendo Harari, scriveva Il giorno lun 27 mar 2023 alle ore 10:48 Giuseppe Attardi < attardi@di.unipi.it> ha scritto:
"the new A.I. capacities will again be used to gain profit and power, even if it inadvertently destroys the foundations of our society.”
Corretto, ma quali siano le situazioni in cui verranno impiegati dipenderà dai fini di coloro che le usano, che NON sono l'AI stessa, ma sono banalissime aziende tecnologiche votate al profitto, guidate da banalissime persone umane. Il problem siamo NOI umani e non la tecnologia.
Queste due righe di Beppe mettono in atto tre mosse - riduzione,
astrazione, generalizzazione - a mio parere esiziali per un confronto produttivo sui temi discussi in questa lista. Cioè: Beppe inizialmente dice che il problema non è l'AI, ma "banalissime aziende tecnologiche votate al profitto, guidate da banalissime persone umane", individuando degli attori complessi come può essere una organizzazione come una azienda dove si intersecano vari tipi di esseri, tra cui anche oggetti tecnici e corpi umani equipaggiati con altri oggetti tecnici e manager che sono altrettanto attori complessi costituiti da documenti, assistenti di vario genere, oggetti tecnici, ecc. E fin qui tutto bene. Poi però arrivano le tre mosse di cui dicevo e riduce la complessità accennata in precedenza a due entità astratte e generali: "NOI umani" e "la tecnologia". Allora, per rispondere a Damiano, un passettino avanti lo si può fare se la si smette di pensare in termini di queste categorie astratte, riduttive e generalizzanti. L'invito è dunque a pensare che siamo sempre, e lo siamo sempre stati, esseri umani equipaggiati da vari tipi di "tecnologie". Dunque la questione non è "esseri umani e tecnologia" o "esseri umani vs tecnologia" o altre declinazioni possibili dell'accoppiata, ma capire come un dato aggregato eterogeneo (*assemblage*, *agencement *nella letteratura delle scienze sociali oggigiorno) o vari aggregati eterogenei vengono riarticolati e ricombinati, ridistribuendone le competenze (o possibilità di azione), dall'entrata in gioco di un diverso e nuovo aggregato eterogeneo, e quanto i precedenti aggregati eterogenei perdurino nonostante l'arrivo di nuovi aggregati eterogenei - che mi sembra sia quanto più chiaramente diceva Weizenbaum / Maria Chiara riguardo la questione delle competenze o possibilità d'azione Faccio presente che non si può avere idea di cosa sia un profitto senza la "partita doppia", che è a suo modo una "tecnologia" ciao alvise
participants (4)
-
alvise -
Damiano Verzulli -
Giuseppe Attardi -
Maria Chiara Pievatolo