Re: [nexa] The Long and Lucrative Mirage of the Driverless Car
Rodney Brooks è un pioniere della robotica e dice questo: https://rodneybrooks.com/agi-has-been-delayed E in particolare ai soloni che ritengono che l'Europa deve concentrarsi sui temi dell'etica nell'AI, dice questo: So what does that say about predictions that AGI is just around the corner? And what does it say about it being an existential threat to humanity any time soon. We have plenty of existential threats to humanity lining up to bash us in the short term, including climate change, plastics in the oceans, and a demographic inversion. If AGI is a long way off then we can not say anything sensible today about what promises or threats it might provide as we need to completely re-engineer our world long before it shows up, and it when it does show up it will be in a world that we can not yet predict. Purtroppo la gran parte dei finianziamenti europei sembra che andranno a chi vuol fare chiacchiere e non a chi l'AI vuol farla per davvero. Il vecchio adagio: "Chi sa fa, chi non sa insegna" va aggiornato in: "Chi sa fa, chi non sa, filosofeggia per impedire a chi sa di fare". -- Beppe On 18/05/19 08:14, nexa-request@server-nexa.polito.it wrote:
On 17/05/2019 01:21, Giacomo Tesio wrote:
Se lo dicono gli Executives... sarà vero.
Con tutto il software che scrivono! Con tutto l'hardware che progettano! Sapranno di cosa parlano! O no? :-D
https://www.theringer.com/tech/2019/5/16/18625127/driverless-cars-mirage-ube...
For years, Silicon Valley giants and Detroit automakers alike have sold the public visions of a utopia featuring autonomous vehicles. That reality is still far off, but that hasn’t stopped companies from cashing in on repeated promises that suggest otherwise. [...]
People have less patience for PR campaigns masquerading as engineering timelines. “That’s bullshit,” says Sam Abuelsamid, a research analyst for Navigant, a consulting firm that ranks companies on the viability of their autonomous vehicle plans. “At best, they may be able to create a system that functions under certain limited scenarios. It will not be fully autonomous in 2020 or anytime in the next several years.”
What’s changed? Self-driving cars—and their associated building blocks such as machine learning, computer vision, and LIDAR—continue to improve, but executives other than Musk have been admitting that reports of their impending deployment were greatly exaggerated. [...]
Yet the precise business models these companies will use on driverless cars remain murky. What’s more, this lack of clarity comes partially by design; for now, there’s more money to be made on the idea of driverless cars than on the vehicles themselves. [...]
On 18/05/2019, Giuseppe Attardi <attardi@di.unipi.it> wrote:
Il vecchio adagio:
"Chi sa fa, chi non sa insegna"
va aggiornato in:
"Chi sa fa, chi non sa, filosofeggia per impedire a chi sa di fare".
Collega! :-D E' noto che gli hacker, mossi da un insaziabile Curiosità, amino il sapere. Un hacker è un filosofo molto prima di diventare ingegnere. E che il filosofo debba insegnare pur sapendo di non sapere, è un imperativo morale molto antico. In fondo, chi ama la conoscenza la diffonde. E non teme l'ignoranza ma la considera un inevitabile punto di partenza, una precondizione fondamentale della curiosità. Ma devo ammettere che è la prima volta che sento dire ad un insegnante, che chiunque insegna, in realtà, fa filosofia. Bravo! Non è affatto scontato! Bene, dunque: fra filosofi ci si intende! :-D Temo tuttavia che il tuo eccessivo ottimismo sul nostro potere sia mal riposto. La Conoscenza non ha mai impedito a nessuno di fare alcunché. Tanto meno a chi crede, superbamente, di sapere. L'umile buon senso di hacker, insegnanti e filosofi non è particolarmente diffuso.
Rodney Brooks è un pioniere della robotica e dice questo:
Bell'articolo. Non ho potuto resistere dal partecipare anche io alla scommessa: https://twitter.com/giacomotesio/status/1129848463162847233 :-D
E in particolare ai soloni che ritengono che l'Europa deve concentrarsi sui temi dell'etica nell'AI, dice questo:
So what does that say about predictions that AGI is just around the corner? And what does it say about it being an existential threat to humanity any time soon. We have plenty of existential threats to humanity lining up to bash us in the short term, including climate change, plastics in the oceans, and a demographic inversion. If AGI is a long way off then we can not say anything sensible today about what promises or threats it might provide as we need to completely re-engineer our world long before it shows up, and it when it does show up it will be in a world that we can not yet predict.
Beh, la tua interpretazione fa diventare queste parole un po' uno strawman. Lui dice che l'AGI non è da considerarsi un problema urgente per l'umanità. Sono perfettamente d'accordo. Ma non nega i problemi della "Intelligenza Artificiale". Al contrario ne evidenzia due molto interessanti:
Here is a press report on a conference on “Human Level AI” that was held in 2018. It reports that 37\% of respondents to a survey at that conference said they expected human level AI to be around in 5 to 10 years. Now, I must say that looking through the conference site I see more large hats than cattle, but these are mostly people with paying corporate or academic jobs, and 37\% of them think this.
Primo problema: il 37% dei ricercatori non sa di cosa parla. E naturalmente, non sa di non sapere.
And if normal human beings can’t simply use these services [...] and go anywhere that they can go in a current day taxi, then really the things deployed will not be autonomous taxis. They will be something else. Calling them taxis would be redefining what a taxi is. And if you can just redefine words on a whim there is really not much value to your words.
Secondo problema: l'abitudine del settore a ridefinire il significato delle parole per ragioni commerciali. Altri esempi noti sono "Intelligenza Artificiale", "Machine Learning", "Learning Rate", "Training", "Neural Networks" etc... Ne abbiamo parlato diverse volte in lista: http://server-nexa.polito.it/pipermail/nexa/2019-March/014715.html E' bello che anche gli esperti internazionali inizino a rendersi conto che si tratta di una pratica poco... scientifica. Peccato l'abbiano presa così alla lontana, partendo dal termine "taxi", ma con un po' di pazienza... ci arriveranno anche loro. :-D
Purtroppo la gran parte dei finanziamenti europei sembra che andranno a chi vuol fare chiacchiere e non a chi l'AI vuol farla per davvero.
Purtroppo non credo che questo sia un problema specifico dell'Informatica. Ma concordo che in Informatica l'UE segue spesso mode eterodirette. Giacomo
participants (2)
-
Giacomo Tesio -
Giuseppe Attardi