Mala innovazione: se bisogna fermarsi per salvare l’umano
Condivido l'idea di Antonio che l'idea di augmented intellect di D. Englebart sia centrale ancora a distanza di 60 anni. In Englebart il computer è come un esoscheletro, è concepito per potenziare la capacità umane (poi vedremo se sono quelle dei buoni come Ripley in Alien - Scontro finale, o dei cattivi come Quaritch in Avatar) ed è quasi un grido la sua conclusione nel 1964 "After all, we spend great sums for disciplines aimed at understanding and harnessing nuclear power. Why not consider developing a discipline aimed at understanding and harnessing "neural power?" In the long run, the power of the human intellect is really much the more important of the two." JCR Licklider sviluppa riflessioni vicine a quelle di Engelbart con "Man Computer Symbiosis" [1] e con "The computer as a communication device"[2]. io agli studenti ne parlo chiamandolo "il paradigma Licklider-Engelbart", un paradigma tutt'ora vitale a mio avviso. l'idea di Engelbart era che "il computer" dovesse liberare l'intelligenza umana perché essa si potesse dedicare ai compiti in cui eccelle: We do not speak of isolated clever tricks that help in particular situations. We refer to a way of life in an integrated domain where hunches, cut-and-try, intangibles, and the human 'feel for a situation" usefully co-exist with powerful concepts, streamlined terminology and notation, sophisticated methods, and high-powered electronic aids.[3] oggi invece vediamo tentativi di sostituire l'intelligenza umana, con sistemi difettosi che tendono a perpetuare uno status quo iniquo. bisognerebbe forse, a mio avviso, in termini di comunicazione abbandonare la forma bipolare che esemplificherei come "l'IA scopre come è ripiegata una proteina, nessuno c'era mai riuscito prima"(ottimistica) e "l'IA controllerà e regolerà le nostre vite" (catastrofica). entrambe le forme implicano infatti l'agency dell'IA, che non esiste (l'agency, non l'IA!) perché l'agency è dei soggetti umani che compiono specifiche scelte per fare essere i software di IA ciò che sono, alimentandoli con i dati appropriati alla loro concezione del mondo. questo si deve sapere, deve essere comunicato. e tra l'altro ipostatizzare "l'IA" concorre a collocarla in uno spazio in cui sembra che i cittadini come singoli e come gruppo con le loro scelte non possano arrivare. invece non è così, si deve sapere che ci sono spazi di scelta e di azione per cambiare e che una buona politica serve[4]. maurizio [1] 1960. «Man-Computer Symbiosis». /IRE Transactions on Human Factors in Electronics/ HFE-1 (1): 4–11. https://doi.org/10.1109/THFE2.1960.4503259 <https://doi.org/10.1109/THFE2.1960.4503259>. [2] con Robert W. Taylor. 1968. «The computer as a communication device». /Science and technology/ 76 (2): 21–41. http://gatekeeper.dec.com/pub/DEC/SRC/research-reports/abstracts/src-rr-061.... <http://gatekeeper.dec.com/pub/DEC/SRC/research-reports/abstracts/src-rr-061....>. [3] 1962. «Augmenting human intellect: a conceptual framework.» AFOSR-3233. Menlo Park, CA: Stanford Research Institute. https://apps.dtic.mil/dtic/tr/fulltext/u2/289565.pdf <https://apps.dtic.mil/dtic/tr/fulltext/u2/289565.pdf> [4] Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE, https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=75788 <https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=75788> Il 23/04/21 12:00, nexa-request@server-nexa.polito.it ha scritto:
Message: 6 Date: Fri, 23 Apr 2021 09:20:16 +0200 From: Antonio Iacono<antiac@gmail.com> To: Nexa<nexa@server-nexa.polito.it> Subject: [nexa] Mala innovazione: se bisogna fermarsi per salvare l’umano Message-ID: <CAPN6PEQ6pnkgeOWK3EU4cRoST3rudUK5uvZUyU3HCkHYyW1mwA@mail.gmail.com> Content-Type: text/plain; charset="UTF-8"
Quello in oggetto è il titolo di un articolo di Alessandro Longo di un paio di giorni fa [1] che termina con: "A volte la cosiddetta innovazione va fermata. A volte, almeno, dobbiamo (sof)fermarci noi (per un po’): per riflettere sulla bontà di quell’innovazione e di come integrarla nell’umano, rendendola umana. Come dicono sempre più esperti di intelligenza artificiale e come suggerisce lo stesso Regolamento UE. Vanno tutelati così gli interessi di fruitori di quella tecnologia, ma anche dei lavoratori, sui cui diritti non possiamo permetterci passi indietro. Appunto: un’innovazione che fa fare passi indietro alla società non è un’innovazione; ma ha una funzione regressiva."
Avevo scritto cose simili in questa lista un paio di mesi fa, sono quindi d'accordo con quanto detto da Longo.
Una piccola chiosa storica.
Agli inizi degli anni Sessanta, a guidare l'ARPA c'era Jack Ruina [2]. Anni dopo, ad una intervista, a chi gli chiese cosa si aspettassero i militari dall'ARPA e dall'intelligenza artificiale, rispose: "L'idea che avevano era di immettere in un potente calcolatore informazioni qualitative del tipo: 'Il comandante dell'aviazione ha bevuto due Martini' oppure ' Khrushchev non legge la Pravda il lunedì' e il computer avrebbe recitato la parte di Sherlock Holmes, e ne avrebbe concluso che i russi stavano costruendo un missile MX-72, o qualcosa del genere." Sia Ruina che Joseph Licklider [3] cercarono di mettere un freno a questo "modo idiota di procedere" [parole loro]. Poco tempo dopo un altro "pioniere dell'informatica moderna", tale Douglas Engelbart [4] (se usiamo il 'mouse' è anche grazie a lui) faticò a far passare l'idea di "intelligenza aumentata", il suo "Augmenting Human Intellect" [5] anticipava il computer e internet di qualche decennio. Engelbart capì subito che i fautori dell'intelligenza artificiale erano i suoi nemici filosofici. La loro "missione" era rimpiazzare gli esseri umani con della macchine, mentre la sua visione consisteva nell'estendere le capacità dell'uomo. Ruina, Licklider, Engelbart, e poi Stallman e molti altri, gente che non si limitava a seguire il "mainstream".
Sessant'anni dopo le cose non sono cambiate di molto Al posto dei tecnici in camice bianco che inseriscono schede perforate negli enormi mainframe per "individuare modelli comportamentali fra gli alti ufficiali sovietici", ci siamo noi che, volontariamente e gratuitamente, immettiamo continuamente dati nella "megamacchina" che è la rete. E dall'altra parte c'è ancora chi, per interesse economico, politico o militare, prova ancora a "individuare modelli comportamentali", stavolta non degli odiati russi ma di tutti noi. Se c'è un compito a cui l'università dovrebbe adempiere è quello di formare degli "Engelbart" dotati di spirito critico e la forza e il coraggio di sapere andare controcorrente (anche se questo dovesse significare abbandonare il "proprio settore" per dedicarsi ad altri "campi di ricerca").
Antonio
[1]https://www.agendadigitale.eu/cultura-digitale/se-linnovazione-ci-fa-male-da... [2]https://en.wikipedia.org/wiki/Jack_Ruina [3]https://it.wikipedia.org/wiki/Joseph_Licklider [4]https://it.wikipedia.org/wiki/Douglas_Engelbart [5]https://www.dougengelbart.org/content/view/138
------------------------------
Subject: Digest Footer
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
------------------------------
End of nexa Digest, Vol 144, Issue 46 *************************************
------------------------------------------------------------------------ many of us believe the EU remains the most extraordinary, ambitious, liberal political alliance in recorded history. where it needs reform, where it needs to evolve, we should be there to help turn that heavy wheel. i. mcewan ------------------------------------------------------------------------ Maurizio Lana - 347 7370925
participants (1)
-
maurizio lana