Il tempo è la risorsa più limitata al mondo.
JM2EC. Buona domenica a tutti. Marco
L’Artificial Intelligence esiste ed è una delle principali discipline della Computer Science.
Ci sono riviste, congressi e istituti dedicati alla ricerca in AI in tutto il mondo.
Il fatto che la Commissione Europea l’abbia ignorata nei suoi finanziamenti, dimostra la sua miopia, non la sua furbizia.
Per fortuna altri paesi l’hanno sostenuta, altrimenti oggi non avremmo il fiorire di innovazioni che sta portando l’AI.
Occupandosi di uno dei problemi più complessi dell’informatica, ossia la riproduzione delle capacità della mente umana, l’AI si è dovuta spesso scontrare coi limiti della tecnologia.
Ma chi se ne occupava si è sempre ingegnato per superarli.
Infatti, gran parte delle tecnologie informatiche che oggi sono di uso comune, sono nate in ambito AI.
Ad esempio:
- linguaggi funzionali
- garbage collection
- linguaggi a oggetti
- interfacce grafiche
- interfacce di sviluppo integrate (IDE)
- Map/reduce per elaborazione parallela
- animazione 3D
- sistemi operativi
Unix fu scritto da Ken Thompson per poter sviluppare il suo programma per il gioco degli scacchi.
Il movimento del Free Software fu lanciato da Richard Stallman, che lavorava al MIT AI Lab, dove partecipava al progetto della MIT Lisp Machine.
Marvin Minsky diceva: “When it works, it is no longer AI”, per esprimere il rammarico che le più significative innovazioni dell’AI venissero spesso attribuite ad altri.
Many of AI's greatest innovations have been reduced to the status of just another item in the tool chest of computer science. Nick Bostrom explains "A lot of cutting edge AI has filtered into general applications, often without being called AI because once something becomes useful enough and common enough it's not labeled AI anymore.”
la ricerca di cui abbiamo bisogno
non riguarda l'"Intelligenza Artificiale" (che non esiste, se non come allucinazione collettiva) ma sulla programmazione statistica
L’AI copre aree più vaste della “programmazione statistica”.
Il confronto con la blockchain è offensivo: quella è una tecnologia in cerca di applicazioni, basata su un singolo articolo.
Non può essere comparata con una disciplina scientifica con 50 anni di ricerca alle spalle e migliaia di ricercatori coinvolti.
In Europa arranchiamo solo perché inseguiamo, invece di guidare.
Non inseguiamo nemmeno: come potremmo guidare una tecnologia di cui abbiamo scarso controllo?
— Beppe
On 14 Apr 2023, at 17:33, nexa-request@server-nexa.polito.it wrote:
From: Giacomo Tesio <giacomo@tesio.it>To: Giuseppe Attardi <attardi@di.unipi.it>Cc: Stefano Maffulli <smaffulli@gmail.com>, "nexa@server-nexa.polito.it" <nexa@server-nexa.polito.it>Subject: Re: [nexa] ChatGPT: Garante privacy, limitazione provvisoria sospesa se OpenAI adotterà le misure richieste.Message-ID: <20230414165246.00001237@tesio.it>Content-Type: text/plain; charset=utf-8On Fri, 14 Apr 2023 11:34:14 +0200 Giuseppe Attardi wrote:On 14 Apr 2023, at 10:20, Giacomo Tesio <
giacomo@tesio.it> wrote:
Beh, è facile concordare sui finanziamenti alla ricerca.
Talmente facile che non viene fatto.
La voce “Intelligenza Artificiale” non era nemmeno presente nei
progetti Horizon fino a 3 anni fa, dove, udite udite, sono stati
stanziati 50 milioni per 5 progetti ICT-48.
Vuoi dire che l'hanno messa?Bah... che posso dire, farà il paio con la blockchain!Il fatto che la voce "Intelligenza Artificiale" non fosse presentelasciava in effetti ben sperare: la ricerca di cui abbiamo bisogno non riguarda l'"Intelligenza Artificiale" (che non esiste, se non come allucinazione collettiva) ma sulla programmazione statisticacui troppi, non comprendendone il funzionamento, attribuisconouna qualche forma di "intelligenza".Ben vengano dunque i finanziamenti alla ricerca di nuove tecniche diprogrammazione statistica che producano risultati più affidabili!Ma ben vengano anche finanziamenti alla ricerca di nuovi frameworkinterpretativi di queste tecnologie, un po' meno allucinati eallucinogeni! :-DAl termine dell'ultimo Mercoledì di Nexa [1], in cui Enrico Nardelli hapresentato le tesi del suo libro "La rivoluzione informatica", JuanCarlos ha detto una cosa importantissima: "sicuramente non esiste indipendenza, non esiste sovranità, senza lapossibilità di controllare, produrre e sviluppare tutte le tecnologiefondamentali che servono per una società moderna"Condivido pienamente il concetto.Vedo però un'enorme vulnerabilità nella formulazione: chi decide cosasignifica "società moderna"? chi decide quali siano le tecnologiefondamentali che servono per realizzarla?In Europa arranchiamo solo perché inseguiamo, invece di guidare.I software della Silicon Valley sono progettati per realizzare unaspecifica idea di società. Dobbiamo davvero competere con loro, solo se vogliamo imporre all'Europa esattamente quella idea di società(e vogliamo farlo meglio di loro). Ma se decidessimo invece di provare a creare una società democratica,libera ed equa, di quali strumenti avremmo bisogno?PS. A proposito di XAI, gli approcci proposti per fornire spiegazioni
a posteriori dei risultati degli attuali sistemi di ML, semplicemente
non funzionano, perché non scalano alle dimensiini di modelli
costituiti da miliardi di parametri. Del resto, se esistesse una
spiegazione semplice e comprensibile per un problema complesso e
difficile, il problema non sarebbe complesso e difficile.
Ecco un'evidenza concreta dei gravi danni che la narrazione della"Intelligenza Artificiale" causa alla ricerca scientifica.Anzitutto, io non ho parlato di XAI, ma di dimostrare in modo semplice(ancorché estremamente costoso) di non aver selezionato scientemente ildataset in modo da causare specifiche discriminazione.Non ho mai detto che ciò garantisca l'assenza di discriminazioni.Salvare tutti quei dati serve solo a poter dimostrare l'assenza di dolo,ma non rimuove la responsabilità per i danni causati dal software.D’altra parte, con le tecniche di prompting cone il Chain of Thought,
si può chiedere agli stessi modelli come ChatGPT di fornire un filo
logico dei passaggi che hanno portato alla risposta.
Stai confondendo (come tanti, purtroppo) giustificazione e spiegazione.ChatGPT può sicuramente produrre una stringa di testo che la tua menteinterpreti come una valida GIUSTIFICAZIONE di un proprio output.Ma tale stringa di testo non costituisce una SPIEGAZIONE di come taleoutput sia stato calcolato.Il calcolo effettuato potrebbe essere del tutto diverso: nessuninformatico (o scienziato) con un minimo di serietà potrebbeaccontentarsi di una tale giustificazione NON VERIFICABILE.Quando si parla di spiegare l'output delle "AI" bisogna aver ben chiarol'obiettivo: non ci interessa trovare un'argomentazione più o menosoddisfacente a sostegno dell'output (ciò che tira fuori ChatGPT se glisi chiede il "Chain of Thought"), ma sapere ESATTAMENTE cosa è statopreso in considerazione durante l'elaborazione E COSA NO, nonché capireESATTAMENTE come.Giacomo[1]: https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304141533570286231&URLID=6&ESV=10.0.19.7431&IV=85A21F91AA19B8E6B5ADDD564190D4A8&TT=1681486437666&ESN=oJcAsb2UnF2YJrNzhy0Xrz3bzijySAnP5cmwB26XqoI%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9pbnYuYnAucHJvamVjdHNlZ2ZhdS5sdC93YXRjaD92PUU3U01aNFdiRzFj&HK=695CA8D99D8E0BA0FDC5E702A7ECB30DB353F20F9120CBBCC61428876DAD39E4
_______________________________________________
nexa mailing list