On 18/05/2019, Giuseppe Attardi <attardi@di.unipi.it> wrote:
Il vecchio adagio:
"Chi sa fa, chi non sa insegna"
va aggiornato in:
"Chi sa fa, chi non sa, filosofeggia per impedire a chi sa di fare".
Collega! :-D E' noto che gli hacker, mossi da un insaziabile Curiosità, amino il sapere. Un hacker è un filosofo molto prima di diventare ingegnere. E che il filosofo debba insegnare pur sapendo di non sapere, è un imperativo morale molto antico. In fondo, chi ama la conoscenza la diffonde. E non teme l'ignoranza ma la considera un inevitabile punto di partenza, una precondizione fondamentale della curiosità. Ma devo ammettere che è la prima volta che sento dire ad un insegnante, che chiunque insegna, in realtà, fa filosofia. Bravo! Non è affatto scontato! Bene, dunque: fra filosofi ci si intende! :-D Temo tuttavia che il tuo eccessivo ottimismo sul nostro potere sia mal riposto. La Conoscenza non ha mai impedito a nessuno di fare alcunché. Tanto meno a chi crede, superbamente, di sapere. L'umile buon senso di hacker, insegnanti e filosofi non è particolarmente diffuso.
Rodney Brooks è un pioniere della robotica e dice questo:
Bell'articolo. Non ho potuto resistere dal partecipare anche io alla scommessa: https://twitter.com/giacomotesio/status/1129848463162847233 :-D
E in particolare ai soloni che ritengono che l'Europa deve concentrarsi sui temi dell'etica nell'AI, dice questo:
So what does that say about predictions that AGI is just around the corner? And what does it say about it being an existential threat to humanity any time soon. We have plenty of existential threats to humanity lining up to bash us in the short term, including climate change, plastics in the oceans, and a demographic inversion. If AGI is a long way off then we can not say anything sensible today about what promises or threats it might provide as we need to completely re-engineer our world long before it shows up, and it when it does show up it will be in a world that we can not yet predict.
Beh, la tua interpretazione fa diventare queste parole un po' uno strawman. Lui dice che l'AGI non è da considerarsi un problema urgente per l'umanità. Sono perfettamente d'accordo. Ma non nega i problemi della "Intelligenza Artificiale". Al contrario ne evidenzia due molto interessanti:
Here is a press report on a conference on “Human Level AI” that was held in 2018. It reports that 37\% of respondents to a survey at that conference said they expected human level AI to be around in 5 to 10 years. Now, I must say that looking through the conference site I see more large hats than cattle, but these are mostly people with paying corporate or academic jobs, and 37\% of them think this.
Primo problema: il 37% dei ricercatori non sa di cosa parla. E naturalmente, non sa di non sapere.
And if normal human beings can’t simply use these services [...] and go anywhere that they can go in a current day taxi, then really the things deployed will not be autonomous taxis. They will be something else. Calling them taxis would be redefining what a taxi is. And if you can just redefine words on a whim there is really not much value to your words.
Secondo problema: l'abitudine del settore a ridefinire il significato delle parole per ragioni commerciali. Altri esempi noti sono "Intelligenza Artificiale", "Machine Learning", "Learning Rate", "Training", "Neural Networks" etc... Ne abbiamo parlato diverse volte in lista: http://server-nexa.polito.it/pipermail/nexa/2019-March/014715.html E' bello che anche gli esperti internazionali inizino a rendersi conto che si tratta di una pratica poco... scientifica. Peccato l'abbiano presa così alla lontana, partendo dal termine "taxi", ma con un po' di pazienza... ci arriveranno anche loro. :-D
Purtroppo la gran parte dei finanziamenti europei sembra che andranno a chi vuol fare chiacchiere e non a chi l'AI vuol farla per davvero.
Purtroppo non credo che questo sia un problema specifico dell'Informatica. Ma concordo che in Informatica l'UE segue spesso mode eterodirette. Giacomo