"L'intelligenza artificiale? Non è vera intelligenza"
Il filosofo americano: "I computer non hanno una mente perché non hanno una coscienza" Il mistero della realtà (Raffaello Cortina Editore, pagg. 300, euro 26) raccoglie dieci lezioni tenute da John Searle all'Università di Girona, nel 2015. In ciascuna di esse, il filosofo americano, allievo di Austin e «nipote» (intellettualmente parlando) di Frege, si occupa delle questioni ancora aperte per la filosofia del XXI secolo. Lo fa dal suo versante, quello della filosofia della mente e del linguaggio (che ha insegnato all'Università di Berkeley, dove oggi, a 86 anni, è professore emerito); quello della filosofia analitica, di cui è uno degli esponenti più celebri, grazie alla sua teoria degli «atti linguistici». E, in particolare, Searle affronta quella che per lui è «la vera domanda» per la filosofia oggi, ovvero: «Come è possibile conciliare ciò che pensiamo della realtà umana con la realtà più elementare descritta dalle scienze dure?». ... [continua qui] http://www.ilgiornale.it/news/cultura/lintelligenza-artificiale-non-vera-int... Leggendo l'intervista parrebbe un libro interessante. Qualcuno l'ha letto? m.c.
Beh, se l'intelligenza artificiale fosse vera intelligenza, troveri inutili a priori tutte le discussioni riguardo una regolmentazione della stessa: i possono regolare i comportamenti derivanti dalle manifestazioni dell'intelletto umano, non l'intelligenza in sè. Buon WE a tutti PS: non, non l'ho letto, ma può essere un buon suggerimento per il WE (il prossimo, visto che non è in e-book) ________________________________ From: nexa <nexa-bounces@server-nexa.polito.it> on behalf of Marco Ciurcina <ciurcina@studiolegale.it> Sent: Saturday, March 16, 2019 9:41 AM To: 'nexa' Subject: [nexa] "L'intelligenza artificiale? Non è vera intelligenza" Il filosofo americano: "I computer non hanno una mente perché non hanno una coscienza" Il mistero della realtà (Raffaello Cortina Editore, pagg. 300, euro 26) raccoglie dieci lezioni tenute da John Searle all'Università di Girona, nel 2015. In ciascuna di esse, il filosofo americano, allievo di Austin e «nipote» (intellettualmente parlando) di Frege, si occupa delle questioni ancora aperte per la filosofia del XXI secolo. Lo fa dal suo versante, quello della filosofia della mente e del linguaggio (che ha insegnato all'Università di Berkeley, dove oggi, a 86 anni, è professore emerito); quello della filosofia analitica, di cui è uno degli esponenti più celebri, grazie alla sua teoria degli «atti linguistici». E, in particolare, Searle affronta quella che per lui è «la vera domanda» per la filosofia oggi, ovvero: «Come è possibile conciliare ciò che pensiamo della realtà umana con la realtà più elementare descritta dalle scienze dure?». ... [continua qui] http://www.ilgiornale.it/news/cultura/lintelligenza-artificiale-non-vera-int... Leggendo l'intervista parrebbe un libro interessante. Qualcuno l'ha letto? m.c. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Interessante affermazione caro Diego, ma dimmi, cos'è l'intelligenza? E poi, mi pare, ma forse sbaglio, che siano stati regolati i comportamenti degli animali domestici che non hanno un intelletto umano... cosa mi sono perso? A. Il giorno sab 16 mar 2019 alle ore 10:47 Diego Giorio <dgiorio@hotmail.com> ha scritto:
Beh, se l'intelligenza artificiale fosse vera intelligenza, troveri inutili a priori tutte le discussioni riguardo una regolmentazione della stessa: i possono regolare i comportamenti derivanti dalle manifestazioni dell'intelletto umano, non l'intelligenza in sè.
Buon WE a tutti
PS: non, non l'ho letto, ma può essere un buon suggerimento per il WE (il prossimo, visto che non è in e-book)
------------------------------ *From:* nexa <nexa-bounces@server-nexa.polito.it> on behalf of Marco Ciurcina <ciurcina@studiolegale.it> *Sent:* Saturday, March 16, 2019 9:41 AM *To:* 'nexa' *Subject:* [nexa] "L'intelligenza artificiale? Non è vera intelligenza"
Il filosofo americano: "I computer non hanno una mente perché non hanno una coscienza"
Il mistero della realtà (Raffaello Cortina Editore, pagg. 300, euro 26) raccoglie dieci lezioni tenute da John Searle all'Università di Girona, nel 2015. In ciascuna di esse, il filosofo americano, allievo di Austin e «nipote» (intellettualmente parlando) di Frege, si occupa delle questioni ancora aperte per la filosofia del XXI secolo. Lo fa dal suo versante, quello della filosofia della mente e del linguaggio (che ha insegnato all'Università di Berkeley, dove oggi, a 86 anni, è professore emerito); quello della filosofia analitica, di cui è uno degli esponenti più celebri, grazie alla sua teoria degli «atti linguistici». E, in particolare, Searle affronta quella che per lui è «la vera domanda» per la filosofia oggi, ovvero: «Come è possibile conciliare ciò che pensiamo della realtà umana con la realtà più elementare descritta dalle scienze dure?». ...
[continua qui]
http://www.ilgiornale.it/news/cultura/lintelligenza-artificiale-non-vera-int...
Leggendo l'intervista parrebbe un libro interessante.
Qualcuno l'ha letto?
m.c.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- Arturo Di Corinto www.dicorinto.it ---------------------------------> AVVERTENZE AI SENSI DEL D.Lgs. 196/2003 Le informazioni contenute in questo messaggio di posta elettronica e/o nel/i file/s allegato/i sono da considerarsi strettamente riservate. Il loro utilizzo è consentito esclusivamente al destinatario del messaggio, per le finalità indicate nel messaggio stesso. Qualora riceviate questo messaggio senza esserne il destinatario, Vi preghiamo cortesemente di darcene notizia via e-mail e di procedere alla distruzione del messaggio stesso, cancellandolo dal Vostro sistema. Conservare il messaggio stesso, divulgarlo anche in parte, distribuirlo ad altri soggetti, copiarlo, od utilizzarlo per finalità diverse, costituisce comportamento contrario ai principi dettati dal D.Lgs. 196/2003
On March 16, 2019 11:35:10 AM UTC, Arturo Di Corinto <arturo.dicorinto@uniroma1.it> wrote:
Interessante affermazione caro Diego, ma dimmi, cos'è l'intelligenza?
Esistono molte definizioni, segno che sostanzialmente nessuna è corretta. Io ne proposi una qualche tempo fa, provando ad analizzarne pregi e difetti: https://medium.com/@giacomo_59737/yet-another-definition-of-intelligence-9bb...
E poi, mi pare, ma forse sbaglio, che siano stati regolati i comportamenti degli animali domestici che non hanno un intelletto umano... cosa mi sono perso?
Che ne risponde il padrone. Giacomo
Il 16/03/19 13:02, Giacomo ha scritto:
On March 16, 2019 11:35:10 AM UTC, Arturo Di Corinto <arturo.dicorinto@uniroma1.it> wrote:
Interessante affermazione caro Diego, ma dimmi, cos'è l'intelligenza?
Esistono molte definizioni, segno che sostanzialmente nessuna è corretta.
Io ne proposi una qualche tempo fa, provando ad analizzarne pregi e difetti: https://medium.com/@giacomo_59737/yet-another-definition-of-intelligence-9bb...
E poi, mi pare, ma forse sbaglio, che siano stati regolati i comportamenti degli animali domestici che non hanno un intelletto umano... cosa mi sono perso?
Che ne risponde il padrone.
non sempre. dipende chi ha le redini del chip. il "padrone" a volta subisce. --lilo;
On March 16, 2019 9:46:53 AM UTC, Diego Giorio <dgiorio@hotmail.com> wrote:
Beh, se l'intelligenza artificiale fosse vera intelligenza, troveri inutili a priori tutte le discussioni riguardo una regolmentazione della stessa: i possono regolare i comportamenti derivanti dalle manifestazioni dell'intelletto umano, non l'intelligenza in sè.
Questa è esattamente la ragione per cui si insiste a chiamarla impropriamente "intelligenza artificiale". L'ambiguità che ne deriva nella mente dei profani facilita il contrasto di normative efficaci. Quanto al testo dell'intervista
Se gli esseri umani sono dei sistemi fisici - e lo sono - allora, in linea di principio, è possibile creare esseri umani artificiali.
Affermazione fortemente metafisica e per quanto ne so poco sostenziata dal punto di vista scientifico. Contro esempio: un litro di gas a temperatura ambiente è un sistema fisico molto più semplice di un essere umano, ma riprodurne una copia esatta, atomo per atomo è impossibile.
Crede che, in futuro, un'Intelligenza artificiale potrà distruggerci?
«No. Nella fantascienza è possibile immaginare che i robot si ribelleranno e cacceranno gli umani. Ma è un'idea sciocca: i robot non hanno coscienza e, quindi, non hanno autonomia. Non hanno né pensieri né intenzioni».
Questo esclude la loro autonomia, non la loro pericolosità. Qualcuno avrà in mano il telecomando con cui controllare le flotte (semi)autonome di T800. Parlare di armi autonome serve solo a lasciare quel telecomando nell'ombra o a deresponsabilizzare chi lo manovra. Condivido il resto del discorso, ma non sono certo che Coscienza/ Consapevolezza costituiscano il discrimine ultimo oggettivo per parlare di intelligenza in termini utili (quanto meno legalmente). Per attribuire responsabilità ad un software che si dichiari intelligente e consapevole dovremo prima dimostrarne il libero arbitrio: https://medium.com/@giacomo_59737/yet-another-definition-of-intelligence-9bb... Se è vero che non siamo capaci di dimostrarlo per un uomo è anche vero che ogni sistema legale lo assume come postulato nel momento in cui punisce un reato. La pena sarebbe un crudele accanirsi contro una vittima del fato se il criminale non avesse avuto scelta. Detto questo, sembra comunque una lettura interessante: grazie del suggerimento! Giacomo G
Caro Marco, non ho letto quest'opera di Searle ma ne conosco i presupposti. Posto che ognuno è libero di spendere il suo tempo come vuole, non la leggerei e mi accontenterei al tuo posto di leggerne una recensione o di capire a quale scuola Searle appartenga. Perché il suo fondare l'intelligenza su una dimensione puramente ed esclusivamente simbolica lo tiene lontano da alcuni dei più interessanti sviluppi avvenuti negli ultimi 30 anni e di grande rilevanza in un mondo digitalizzato: "A mio parere". (qui ironicamente colgo l'obbligo che un giudice impone agli avvocati delle parti per ogni affermazione che fanno negli interrogatori dei testi durante un processo nella bella serie tv "A Good Wife"). Mi riferisco al lavoro del neuro-biologo Francisco Varela e altri in *Embodied Mind*, in cui sostiene - "a suo parere" - che il corpo abbia un ruolo nel processo di conoscenza e di definizione del sé individuale e collettivo e che vada inteso oltre la scissione corpo-mente che definisce la teoria cognitiva sin dalle sue origini, scissione alla base dei modelli impiegati nella robotica, nella AI etc.. Da un approccio rappresentazionale della realtà si passa ad uno incarnato ed enattivo. La conoscenza risulta pertanto incarnata: da qui il dibattito sull'intelligenza artificiale o come la si voglia chiamare assume una prospettiva diversa. E naturalmente quello sulla "coscienza", come testimonia ad es. il dibattito sul *Journal of Consciousness Studies* e quello in *Constructivist Foundations*. Ciò ha grandi conseguenze pratiche, ad esempio sulla formazione degli esperti di diritto a vario titolo che si occupano di questi temi e nella stessa progettazione e co-progettazione di queste tecnologie. Mi immagino - sbaglio? - che i lettori di nexa siano perlopiù influenzati da un approccio neo-positivista e pertanto non li voglio annoiare oltremodo e mando un caro saluto a tutti. vincenzo giorgino Il giorno sab 16 mar 2019 alle ore 10:41 Marco Ciurcina < ciurcina@studiolegale.it> ha scritto:
Il filosofo americano: "I computer non hanno una mente perché non hanno una coscienza"
Il mistero della realtà (Raffaello Cortina Editore, pagg. 300, euro 26) raccoglie dieci lezioni tenute da John Searle all'Università di Girona, nel 2015. In ciascuna di esse, il filosofo americano, allievo di Austin e «nipote» (intellettualmente parlando) di Frege, si occupa delle questioni ancora aperte per la filosofia del XXI secolo. Lo fa dal suo versante, quello della filosofia della mente e del linguaggio (che ha insegnato all'Università di Berkeley, dove oggi, a 86 anni, è professore emerito); quello della filosofia analitica, di cui è uno degli esponenti più celebri, grazie alla sua teoria degli «atti linguistici». E, in particolare, Searle affronta quella che per lui è «la vera domanda» per la filosofia oggi, ovvero: «Come è possibile conciliare ciò che pensiamo della realtà umana con la realtà più elementare descritta dalle scienze dure?». ...
[continua qui]
http://www.ilgiornale.it/news/cultura/lintelligenza-artificiale-non-vera-int...
Leggendo l'intervista parrebbe un libro interessante.
Qualcuno l'ha letto?
m.c.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- A new book https://www.palgrave.com/de/book/9783319665917 "One of the great liabilities of life is that all too many people find themselves living amid a great period of social change and yet they fail to develop the new attitudes, the new mental responses that the new situation demands. They end up sleeping through a revolution." - Martin Luther King, Jr., "Remaining Awake Through a Great Revolution" Vincenzo Mario Bruno Giorgino, Ph.D. Dept. of Economic and Social Sciences, Mathematics and Statistics University of Torino - Italy
On March 16, 2019 12:25:59 PM UTC, Vincenzo Mario Bruno Giorgino <vincenzo.giorgino@unito.it> wrote:
Mi immagino - sbaglio? - che i lettori di nexa siano perlopiù influenzati da un approccio neo-positivista e pertanto non li voglio annoiare oltremodo e mando un caro saluto a tutti.
Francamente non so se sono neo-positivista, neo-romantico o semplicemente un neo, ma sarei felice di essere ulteriormente annoiato. :-)
Mi riferisco al lavoro del neuro-biologo Francisco Varela e altri in *Embodied Mind*, in cui sostiene - "a suo parere" - che il corpo abbia un ruolo nel processo di conoscenza e di definizione del sé individuale e collettivo e che vada inteso oltre la scissione corpo-mente che definisce la teoria cognitiva sin dalle sue origini, scissione alla base dei modelli impiegati nella robotica, nella AI etc..
Molto interessante. Ad una veloce scorsa su Wikipedia sembrerebbe che la filosofia del corpo non tenga in considerazione alcun fattore genetico-evolitivo. In pratica, non si allontana poi molto dalla contrapposizione mente-corpo, trattando il corpo semplicemente come un device di input capace di determinare in sé stesso la l'intera conoscenza umana. Non mi sorprende che piaccia a chi vende le AI. Personalmente ritengo che la relazione mente-corpo sia più stretta e più complessa, tanto che certe conoscenze e strutture cognitive (come la Matematica) possano essere evolutivamente determinate e cablate nelle nostre menti sin dal concepimento. Il che significa, per esempio, che certe conoscenze ci sono fisicamente precluse fino al prossimo passo evolutivo (che in effetti non è detto ampi i nostri orizzonti... ma questa è un'altra storia).
Da un approccio rappresentazionale della realtà si passa ad uno incarnato ed enattivo.
La Matematica intanto se la ride sotto i baffi. :-) Rifiutare un approccio rappresentazionale, significa semplicemente rinunciare uno degli strumenti più potenti della nostra specie (cosa che in effetti i sostenitori della "fine dei modelli" a favore dei dati, fanno).
La conoscenza risulta pertanto incarnata: da qui il dibattito sull'intelligenza artificiale o come la si voglia chiamare assume una prospettiva diversa.
Verbum caro factum est. Diciamo... non proprio un idea nuova... :-D In effetti (e paradossalmente) in assenza di carne prodotta da un processo evolutivo durato un paio di miliardi di anni, vedere intelligenza in una macchina richiede una gran fede... in chi la costruisce. ;-) In effetti, come programmatore, questo mi fa chiedere se Dio sia ateo. Ma in fondo Dio è Amare... che gli importa?
E naturalmente quello sulla "coscienza", come testimonia ad es. il dibattito sul *Journal of Consciousness Studies* e quello in *Constructivist Foundations*.
Ahimè non ne sono al corrente. Hai voglia di condividere quali siano le posizioni più interessanti?
Ciò ha grandi conseguenze pratiche, ad esempio sulla formazione degli esperti di diritto a vario titolo che si occupano di questi temi
Questo mi preoccupa molto.
e nella stessa progettazione e co-progettazione di queste tecnologie.
No sulla progettazione no... Ci sarà sicuramente qualche giovane ingenuo che lavora gratuitamente per la causa, come in ogni setta, ma sono anni che i ricercatori più seri ammettono che i risultati migliori non derivano dal tentativo di emulare il cervello umano. Le reti neurali convoluzionali (usate in computer vision) non hanno nulla della biologia neurale. Se invece parliamo della vendita di queste tecnologie... sì questo ha grandi con$eguenz€ pratiche. :-D Giacomo
Caro Giacomo, il dibattito su un approccio non rappresentazionale della realtà - dal 1991, anno di pubblicazione del volume che ho citato, di Varela, Rosch e Thompson - si è arricchito nel tempo di molti altri contributi e qui cito solo due opere recenti che conosco: Stewart et al 2010 Enaction. Toward a new paradigm for Cognitve Science, MIT Press e Gallgaher e Zahavi La mente fenomenologica, R. Cortina ed. del 2009. E' vero che grandi successi sono dipesi proprio dal modello rappresentazionale, ma ciò non toglie che qualcuno ne veda i limiti e prospetti altre strade. Nel mio campo, ho certezza empirica che la dimensione simbolica non racchiuda in sè cosa si può intendere per conoscenza. Per ora mi basta questo per procedere nell'esplorare altre vie. Preciso che Io non mi interesso di AI ma di intelligenza umana in senso ampio, con uno scopo pratico e non teorico: co-progettare ecosistemi socio-economici in cui gli esperti lavorano con i "prosumer" (produmatori?), non solo "utilizzatori". Sul corpo come device etc... a mio avviso corri troppo in là, perchè le argomentazioni sono molto più articolate ed arrivano ad una definizione di coscienza che necessita di travalicare le discipline sia umanistiche che scientifiche, per far riferimento in forma laica proprio alle tradizioni di saggezza dell'umanità. Non si tratta di una pura riflessione intellettuale sulla vita, implica la coltivazione di una certa sensibilità e la sua sistematica integrazione nella vita quotidiana, con una formazione e metodi ad hoc, come ogni altra cosa: vedi la formazione alla mindfulness come esempio. L'intelligenza cognitiva va integrata, secondo questa prospettiva, con le tecnologie del sè. Un saluto, vincenzo giorgino Il giorno sab 16 mar 2019 alle ore 16:33 Giacomo <giacomo@tesio.it> ha scritto:
On March 16, 2019 12:25:59 PM UTC, Vincenzo Mario Bruno Giorgino < vincenzo.giorgino@unito.it> wrote:
Mi immagino - sbaglio? - che i lettori di nexa siano perlopiù influenzati da un approccio neo-positivista e pertanto non li voglio annoiare oltremodo e mando un caro saluto a tutti.
Francamente non so se sono neo-positivista, neo-romantico o semplicemente un neo, ma sarei felice di essere ulteriormente annoiato. :-)
Mi riferisco al lavoro del neuro-biologo Francisco Varela e altri in *Embodied Mind*, in cui sostiene - "a suo parere" - che il corpo abbia un
ruolo
nel processo di conoscenza e di definizione del sé individuale e collettivo e che vada inteso oltre la scissione corpo-mente che definisce la teoria cognitiva sin dalle sue origini, scissione alla base dei modelli impiegati nella robotica, nella AI etc..
Molto interessante.
Ad una veloce scorsa su Wikipedia sembrerebbe che la filosofia del corpo non tenga in considerazione alcun fattore genetico-evolitivo.
In pratica, non si allontana poi molto dalla contrapposizione mente-corpo, trattando il corpo semplicemente come un device di input capace di determinare in sé stesso la l'intera conoscenza umana.
Non mi sorprende che piaccia a chi vende le AI.
Personalmente ritengo che la relazione mente-corpo sia più stretta e più complessa, tanto che certe conoscenze e strutture cognitive (come la Matematica) possano essere evolutivamente determinate e cablate nelle nostre menti sin dal concepimento.
Il che significa, per esempio, che certe conoscenze ci sono fisicamente precluse fino al prossimo passo evolutivo (che in effetti non è detto ampi i nostri orizzonti... ma questa è un'altra storia).
Da un approccio rappresentazionale della realtà si passa ad uno incarnato ed enattivo.
La Matematica intanto se la ride sotto i baffi. :-)
Rifiutare un approccio rappresentazionale, significa semplicemente rinunciare uno degli strumenti più potenti della nostra specie (cosa che in effetti i sostenitori della "fine dei modelli" a favore dei dati, fanno).
La conoscenza risulta pertanto incarnata: da qui il dibattito sull'intelligenza artificiale o come la si voglia chiamare assume una prospettiva diversa.
Verbum caro factum est. Diciamo... non proprio un idea nuova... :-D
In effetti (e paradossalmente) in assenza di carne prodotta da un processo evolutivo durato un paio di miliardi di anni, vedere intelligenza in una macchina richiede una gran fede... in chi la costruisce. ;-)
In effetti, come programmatore, questo mi fa chiedere se Dio sia ateo. Ma in fondo Dio è Amare... che gli importa?
E naturalmente quello sulla "coscienza", come testimonia ad es. il dibattito sul *Journal of Consciousness Studies* e quello in *Constructivist Foundations*.
Ahimè non ne sono al corrente. Hai voglia di condividere quali siano le posizioni più interessanti?
Ciò ha grandi conseguenze pratiche, ad esempio sulla formazione degli esperti di diritto a vario titolo che si occupano di questi temi
Questo mi preoccupa molto.
e nella stessa progettazione e co-progettazione di queste tecnologie.
No sulla progettazione no... Ci sarà sicuramente qualche giovane ingenuo che lavora gratuitamente per la causa, come in ogni setta, ma sono anni che i ricercatori più seri ammettono che i risultati migliori non derivano dal tentativo di emulare il cervello umano.
Le reti neurali convoluzionali (usate in computer vision) non hanno nulla della biologia neurale.
Se invece parliamo della vendita di queste tecnologie... sì questo ha grandi con$eguenz€ pratiche. :-D
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- A new book https://www.palgrave.com/de/book/9783319665917 "One of the great liabilities of life is that all too many people find themselves living amid a great period of social change and yet they fail to develop the new attitudes, the new mental responses that the new situation demands. They end up sleeping through a revolution." - Martin Luther King, Jr., "Remaining Awake Through a Great Revolution" Vincenzo Mario Bruno Giorgino, Ph.D. Dept. of Economic and Social Sciences, Mathematics and Statistics University of Torino - Italy
Grazie dei riferimenti. Cercherò usarli per ampiare le mie prospettive. A presto! Giacomo On 18/03/2019, Vincenzo Mario Bruno Giorgino <vincenzo.giorgino@unito.it> wrote:
Caro Giacomo,
il dibattito su un approccio non rappresentazionale della realtà - dal 1991, anno di pubblicazione del volume che ho citato, di Varela, Rosch e Thompson - si è arricchito nel tempo di molti altri contributi e qui cito solo due opere recenti che conosco: Stewart et al 2010 Enaction. Toward a new paradigm for Cognitve Science, MIT Press e Gallgaher e Zahavi La mente fenomenologica, R. Cortina ed. del 2009. E' vero che grandi successi sono dipesi proprio dal modello rappresentazionale, ma ciò non toglie che qualcuno ne veda i limiti e prospetti altre strade. Nel mio campo, ho certezza empirica che la dimensione simbolica non racchiuda in sè cosa si può intendere per conoscenza. Per ora mi basta questo per procedere nell'esplorare altre vie. Preciso che Io non mi interesso di AI ma di intelligenza umana in senso ampio, con uno scopo pratico e non teorico: co-progettare ecosistemi socio-economici in cui gli esperti lavorano con i "prosumer" (produmatori?), non solo "utilizzatori". Sul corpo come device etc... a mio avviso corri troppo in là, perchè le argomentazioni sono molto più articolate ed arrivano ad una definizione di coscienza che necessita di travalicare le discipline sia umanistiche che scientifiche, per far riferimento in forma laica proprio alle tradizioni di saggezza dell'umanità. Non si tratta di una pura riflessione intellettuale sulla vita, implica la coltivazione di una certa sensibilità e la sua sistematica integrazione nella vita quotidiana, con una formazione e metodi ad hoc, come ogni altra cosa: vedi la formazione alla mindfulness come esempio. L'intelligenza cognitiva va integrata, secondo questa prospettiva, con le tecnologie del sè.
Un saluto,
vincenzo giorgino
Il giorno sab 16 mar 2019 alle ore 16:33 Giacomo <giacomo@tesio.it> ha scritto:
On March 16, 2019 12:25:59 PM UTC, Vincenzo Mario Bruno Giorgino < vincenzo.giorgino@unito.it> wrote:
Mi immagino - sbaglio? - che i lettori di nexa siano perlopiù influenzati da un approccio neo-positivista e pertanto non li voglio annoiare oltremodo e mando un caro saluto a tutti.
Francamente non so se sono neo-positivista, neo-romantico o semplicemente un neo, ma sarei felice di essere ulteriormente annoiato. :-)
Mi riferisco al lavoro del neuro-biologo Francisco Varela e altri in *Embodied Mind*, in cui sostiene - "a suo parere" - che il corpo abbia un
ruolo
nel processo di conoscenza e di definizione del sé individuale e collettivo e che vada inteso oltre la scissione corpo-mente che definisce la teoria cognitiva sin dalle sue origini, scissione alla base dei modelli impiegati nella robotica, nella AI etc..
Molto interessante.
Ad una veloce scorsa su Wikipedia sembrerebbe che la filosofia del corpo non tenga in considerazione alcun fattore genetico-evolitivo.
In pratica, non si allontana poi molto dalla contrapposizione mente-corpo, trattando il corpo semplicemente come un device di input capace di determinare in sé stesso la l'intera conoscenza umana.
Non mi sorprende che piaccia a chi vende le AI.
Personalmente ritengo che la relazione mente-corpo sia più stretta e più complessa, tanto che certe conoscenze e strutture cognitive (come la Matematica) possano essere evolutivamente determinate e cablate nelle nostre menti sin dal concepimento.
Il che significa, per esempio, che certe conoscenze ci sono fisicamente precluse fino al prossimo passo evolutivo (che in effetti non è detto ampi i nostri orizzonti... ma questa è un'altra storia).
Da un approccio rappresentazionale della realtà si passa ad uno incarnato ed enattivo.
La Matematica intanto se la ride sotto i baffi. :-)
Rifiutare un approccio rappresentazionale, significa semplicemente rinunciare uno degli strumenti più potenti della nostra specie (cosa che in effetti i sostenitori della "fine dei modelli" a favore dei dati, fanno).
La conoscenza risulta pertanto incarnata: da qui il dibattito sull'intelligenza artificiale o come la si voglia chiamare assume una prospettiva diversa.
Verbum caro factum est. Diciamo... non proprio un idea nuova... :-D
In effetti (e paradossalmente) in assenza di carne prodotta da un processo evolutivo durato un paio di miliardi di anni, vedere intelligenza in una macchina richiede una gran fede... in chi la costruisce. ;-)
In effetti, come programmatore, questo mi fa chiedere se Dio sia ateo. Ma in fondo Dio è Amare... che gli importa?
E naturalmente quello sulla "coscienza", come testimonia ad es. il dibattito sul *Journal of Consciousness Studies* e quello in *Constructivist Foundations*.
Ahimè non ne sono al corrente. Hai voglia di condividere quali siano le posizioni più interessanti?
Ciò ha grandi conseguenze pratiche, ad esempio sulla formazione degli esperti di diritto a vario titolo che si occupano di questi temi
Questo mi preoccupa molto.
e nella stessa progettazione e co-progettazione di queste tecnologie.
No sulla progettazione no... Ci sarà sicuramente qualche giovane ingenuo che lavora gratuitamente per la causa, come in ogni setta, ma sono anni che i ricercatori più seri ammettono che i risultati migliori non derivano dal tentativo di emulare il cervello umano.
Le reti neurali convoluzionali (usate in computer vision) non hanno nulla della biologia neurale.
Se invece parliamo della vendita di queste tecnologie... sì questo ha grandi con$eguenz€ pratiche. :-D
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
--
A new book https://www.palgrave.com/de/book/9783319665917
"One of the great liabilities of life is that all too many people find themselves living amid a great period of social change and yet they fail to develop the new attitudes, the new mental responses that the new situation demands. They end up sleeping through a revolution." - Martin Luther King, Jr., "Remaining Awake Through a Great Revolution"
Vincenzo Mario Bruno Giorgino, Ph.D. Dept. of Economic and Social Sciences, Mathematics and Statistics University of Torino - Italy
Vincenzo, grazie mille. m.c. In data sabato 16 marzo 2019 13:25:59 CET, Vincenzo Mario Bruno Giorgino ha scritto:
Caro Marco,
non ho letto quest'opera di Searle ma ne conosco i presupposti. Posto che ognuno è libero di spendere il suo tempo come vuole, non la leggerei e mi accontenterei al tuo posto di leggerne una recensione o di capire a quale scuola Searle appartenga. Perché il suo fondare l'intelligenza su una dimensione puramente ed esclusivamente simbolica lo tiene lontano da alcuni dei più interessanti sviluppi avvenuti negli ultimi 30 anni e di grande rilevanza in un mondo digitalizzato: "A mio parere". (qui ironicamente colgo l'obbligo che un giudice impone agli avvocati delle parti per ogni affermazione che fanno negli interrogatori dei testi durante un processo nella bella serie tv "A Good Wife"). Mi riferisco al lavoro del neuro-biologo Francisco Varela e altri in *Embodied Mind*, in cui sostiene - "a suo parere" - che il corpo abbia un ruolo nel processo di conoscenza e di definizione del sé individuale e collettivo e che vada inteso oltre la scissione corpo-mente che definisce la teoria cognitiva sin dalle sue origini, scissione alla base dei modelli impiegati nella robotica, nella AI etc.. Da un approccio rappresentazionale della realtà si passa ad uno incarnato ed enattivo. La conoscenza risulta pertanto incarnata: da qui il dibattito sull'intelligenza artificiale o come la si voglia chiamare assume una prospettiva diversa. E naturalmente quello sulla "coscienza", come testimonia ad es. il dibattito sul *Journal of Consciousness Studies* e quello in *Constructivist Foundations*. Ciò ha grandi conseguenze pratiche, ad esempio sulla formazione degli esperti di diritto a vario titolo che si occupano di questi temi e nella stessa progettazione e co-progettazione di queste tecnologie. Mi immagino - sbaglio? - che i lettori di nexa siano perlopiù influenzati da un approccio neo-positivista e pertanto non li voglio annoiare oltremodo e mando un caro saluto a tutti.
vincenzo giorgino
Il giorno sab 16 mar 2019 alle ore 10:41 Marco Ciurcina <
ciurcina@studiolegale.it> ha scritto:
Il filosofo americano: "I computer non hanno una mente perché non hanno una coscienza"
Il mistero della realtà (Raffaello Cortina Editore, pagg. 300, euro 26) raccoglie dieci lezioni tenute da John Searle all'Università di Girona, nel 2015. In ciascuna di esse, il filosofo americano, allievo di Austin e «nipote» (intellettualmente parlando) di Frege, si occupa delle questioni ancora aperte per la filosofia del XXI secolo. Lo fa dal suo versante, quello della filosofia della mente e del linguaggio (che ha insegnato all'Università di Berkeley, dove oggi, a 86 anni, è professore emerito); quello della filosofia analitica, di cui è uno degli esponenti più celebri, grazie alla sua teoria degli «atti linguistici». E, in particolare, Searle affronta quella che per lui è «la vera domanda» per la filosofia oggi, ovvero: «Come è possibile conciliare ciò che pensiamo della realtà umana con la realtà più elementare descritta dalle scienze dure?». ...
[continua qui]
http://www.ilgiornale.it/news/cultura/lintelligenza-artificiale-non-vera-i ntelligenza-1662204.html
Leggendo l'intervista parrebbe un libro interessante.
Qualcuno l'ha letto?
m.c.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Carissimi-- Il giorno sab 16 mar 2019 alle ore 13:26 Vincenzo Mario Bruno Giorgino < vincenzo.giorgino@unito.it> ha scritto:
Caro Marco,
non ho letto quest'opera di Searle ma ne conosco i presupposti. Posto che ognuno è libero di spendere il suo tempo come vuole, non la leggerei e mi accontenterei al tuo posto di leggerne una recensione o di capire a quale scuola Searle appartenga.
Questa mi pare una posizione ragionevole. Searle è un filosofo e come citato da Ciurcina "parla proprio dal suo versante, quello della filosofia della mente e del linguaggio". Per fortuna di intelligenza artificiale debole o forte non è il solo a parlarne. E non credo che esista un solo studioso che sia ambiguo su termini e definizione di cosa sia l'intelligenza artificiale come il caro Giacomo Tesio insiste a dire. Chi studia questo campo ha un'idea piuttosto precisa di cosa differenzia il machine learning, il deep learning e l'intelligenza artificiale generale, l'unica, per intenderci, che viene usata come strumento euristico per una teoria e una pratica della creazione di intelligenza in grado di assolvere funzioni simili a quelle dell'intelligenza umana. Detto questo, approfitto per dire che il CINI ha creato un laboratorio di intelligenza artificiale e sistemi intelligenti che conta decine di università e 600 afferenti per sostenere una tradizione di studi tutta italiana in cui il nostro paese ha delle eccellenze riconosciute a livello internazionale. Oggi è a convegno per due giorni a Roma. Chi ha le idee confuse sul tema può andare ad ascoltare gli esperti. Così non penserà che gli unici a occuparsene in Italia sono gli esperti del gruppo del MISE. A presto Il giorno sab 16 mar 2019 alle ore 10:41 Marco Ciurcina < ciurcina@studiolegale.it> ha scritto:
Il filosofo americano: "I computer non hanno una mente perché non hanno una coscienza"
Il mistero della realtà (Raffaello Cortina Editore, pagg. 300, euro 26) raccoglie dieci lezioni tenute da John Searle all'Università di Girona, nel 2015. In ciascuna di esse, il filosofo americano, allievo di Austin e «nipote» (intellettualmente parlando) di Frege, si occupa delle questioni ancora aperte per la filosofia del XXI secolo. Lo fa dal suo versante, quello della filosofia della mente e del linguaggio (che ha insegnato all'Università di Berkeley, dove oggi, a 86 anni, è professore emerito); quello della filosofia analitica, di cui è uno degli esponenti più celebri, grazie alla sua teoria degli «atti linguistici». E, in particolare, Searle affronta quella che per lui è «la vera domanda» per la filosofia oggi, ovvero: «Come è possibile conciliare ciò che pensiamo della realtà umana con la realtà più elementare descritta dalle scienze dure?». ...
[continua qui]
http://www.ilgiornale.it/news/cultura/lintelligenza-artificiale-non-vera-int...
Leggendo l'intervista parrebbe un libro interessante.
Qualcuno l'ha letto?
m.c.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- A new book https://www.palgrave.com/de/book/9783319665917 "One of the great liabilities of life is that all too many people find themselves living amid a great period of social change and yet they fail to develop the new attitudes, the new mental responses that the new situation demands. They end up sleeping through a revolution." - Martin Luther King, Jr., "Remaining Awake Through a Great Revolution" Vincenzo Mario Bruno Giorgino, Ph.D. Dept. of Economic and Social Sciences, Mathematics and Statistics University of Torino - Italy _______________________________________________
nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- Arturo Di Corinto www.dicorinto.it ---------------------------------> AVVERTENZE AI SENSI DEL D.Lgs. 196/2003 Le informazioni contenute in questo messaggio di posta elettronica e/o nel/i file/s allegato/i sono da considerarsi strettamente riservate. Il loro utilizzo è consentito esclusivamente al destinatario del messaggio, per le finalità indicate nel messaggio stesso. Qualora riceviate questo messaggio senza esserne il destinatario, Vi preghiamo cortesemente di darcene notizia via e-mail e di procedere alla distruzione del messaggio stesso, cancellandolo dal Vostro sistema. Conservare il messaggio stesso, divulgarlo anche in parte, distribuirlo ad altri soggetti, copiarlo, od utilizzarlo per finalità diverse, costituisce comportamento contrario ai principi dettati dal D.Lgs. 196/2003
On 18/03/2019, Arturo Di Corinto <arturo.dicorinto@uniroma1.it> wrote:
E non credo che esista un solo studioso che sia ambiguo su termini e definizione di cosa sia l'intelligenza artificiale come il caro Giacomo Tesio insiste a dire.
Già. Quel rompiscatole! Quando lo vedo gliene dico quattro! :-D I ricercatori sono piuttosto precisi nelle definizioni. Mica so fessi! :-D Tuttavia i termini che definiscono corrispondono a significanti cui il resto della popolazione attribuisce significati completamente diversi ed incompatibili. Perché evocare esperienze fortemente radicate nel vissuto umano per qualcosa che non è assolutamente relazionato ad esso? Perché parlare di "apprendimento" invece di calibrazione? Perché parlare di "bias" invece che di errore o bug? Perché parlare di "intelligenze" invece di simulatori? Sono solo alcuni esempi, il settore è pieno di queste... ri-"definizioni". Il linguaggio dell'Intelligenza Artificiale non è ambiguo per chi la studia e la adotta, per i programmatori come me o per i ricercatori (seppure dubito che usare termini come intelligenza non abbia effetto sull'interpretazione dei dati fattuali anche da parte loro). E' ambiguo per gli altri. Per quelli che non saprebbero scrivere un classificatore di immagini in R o in TensorFlow. Per quelli che non sanno come confrontare i modelli ottenuti attraverso un cross-validation set e come misurare le performance dello stesso attraverso un set di prova. O che non saprebbero identificare correlazioni non volute nel set di calibrazione che finirebbero per produrre "bias" (o più propriamente BUG) nel classificatore risultante. Per quelli che non hanno mai dovuto risolvere problemi di overfit o underfit. Le persone che non hanno una comprensione della materia sufficiente a fare queste cose (che sono, piuttosto semplici, in realtà), sentono parlare ancora e ancora di intelligenza, di machine learning, di bias... e tutto quello che capiscono, ogni informazione che si in-forma nella loro mente, è sbagliata. Tali ri-definizioni sono degne di un romanzo di Orwell, non di un testo scientifico. Tutto questo, unita all'attiva mala fede di chi produce prodotti basati su queste tecnologie, porta le persone a flirtare con Alexa. E politici incompetenti ad invitare Uber a testare le auto a guida autonoma su strade aperte al pubblico. Poi, per carità... ci sono ragioni storiche (ed soprattutto economiche :-D) per cui questi termini si sono imposti. Come ci sono ragioni scientifiche per abbandonarli. O pensi che dovremmo parlare ancora di Pietra Filosofale e Elisir di Lunga Vita? ;-) Giacomo Tesio è solo un programmatore. Meglio leggere Dijkstra: https://www.cs.utexas.edu/users/EWD/transcriptions/EWD08xx/EWD898.html Giacomo
Caro Vincenzo quella che chiamiamo "intelligenza artificiale", che è quella "di grande rilevanza in un mondo digitalizzato", non è forse proprio "fondata su una dimensione puramente ed esclusivamente simbolica"? Non ho letto "Embodied Mind" ma sono assolutamente d'accordo con quanto racconti delle sue tesi: non si può davvero parlare di "intelligenza", nel senso che da persone diamo a questo termine, se non si tiene conto il corpo in cui si manifesta e insieme al quale si sviluppa. Di conseguenza, se l'intelligenza è solo quella "incarnata" allora quella che chiamiamo "intelligenza artificiale" non possiede "intelligenza" e dovrebbe essere ribattezzata "deduzione automatica" o "ragionamento automatico" o qualcosa di simile... Su queste basi il libro di Searle mi sembrerebbe quindi rilevante. E sono d'accordo con Giacomo che usare lo stesso nome "intelligenza" per due fenomeni radicalmente diversi quali quella delle persone e quella delle macchine non rende un bel servizio alla diffusione, tra chi non è addetto ai lavori, di una corretta conoscenza delle questioni in gioco. Purtroppo, come il termine "informatica" è usato da tutto quanto va dall'operatività più spicciola (non riesco a stampare) alla teoria più elevata (P=NP?), così temo che dobbiamo sopravvivere con questo utilizzo di "intelligenza". Ma forse dovremmo anche spenderci di più in divulgazione... :-) Ciao, Enrico Il 16/03/2019 13:25, Vincenzo Mario Bruno Giorgino ha scritto:
Perché il suo fondare l'intelligenza su una dimensione puramente ed esclusivamente simbolica lo tiene lontano da alcuni dei più interessanti sviluppi avvenuti negli ultimi 30 anni e di grande rilevanza in un mondo digitalizzato:
-- EN ===================================================================== Prof. Enrico Nardelli Dipartimento di Matematica - Universita' di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it home page: http://www.mat.uniroma2.it/~nardelli blog: http://www.ilfattoquotidiano.it/blog/enardelli/ http://link-and-think.blogspot.it/ ===================================================================== --
On 19/03/2019, Enrico Nardelli <nardelli@mat.uniroma2.it> wrote:
E sono d'accordo con Giacomo che usare lo stesso nome "intelligenza" per due fenomeni radicalmente diversi quali quella delle persone e quella delle macchine non rende un bel servizio alla diffusione, tra chi non è addetto ai lavori, di una corretta conoscenza delle questioni in gioco.
Si tratta di un problema puramente Informatico, precisamente di UI, di User Interface. Immagina se un mio programma, chiamiamolo BOFH-AI, avesse un pulsante [Salva]. Nel manuale di 500 pagine che ti allego in formato PDF, pubblico in HTML e ti faccio recapitare a casa in copertina rigida c'è scritto chiaramente, a pagina 294: "Cliccando sul pulsante [Salva], BOFH-AI formatta il PC dell'utente senza annoiare lo stesso con richieste di conferma". Se ti lamenti, uno dei miei PR ti fa notare che la definizione del pulsante è precisa e chiara, e avresti dovuto leggere il manuale. Colpevolizzando le vittime ignoranti e pigre, evito di dover pagare i danni o correggere l'interfaccia. Qui è la stessa cosa. Solo che il danno causato dalla AI è più subdolo rispetto a quello di BOFH-AI. E' un danno collettivo, sociale e politico. Potremmo chiamarlo "esternalità"? :-D
Purtroppo, come il termine "informatica" è usato da tutto quanto va dall'operatività più spicciola (non riesco a stampare) alla teoria più elevata (P=NP?), così temo che dobbiamo sopravvivere con questo utilizzo di "intelligenza".
Io credo che l'Informatica sia effettivamente una materia di tale vasta e variegata portata. Tuttavia sono fiducioso. Passata la primavera (della AI) e gli ormoni ($$$)... la gente tornerà a ragionare.
Ma forse dovremmo anche spenderci di più in divulgazione... :-)
Spenderci... e spendere! ;-) Divulgazione... ed Educazione propriamente detta. Ma cosa vuoi... in Italia c'è ancora chi pensa che "con la Cultura non si mangia"! :-( Giacomo
Direi che San Tommaso aveva già risolto la diatriba su cui sono stati spesi fiumi di bit in questo thread alcuni secoli fa: *ratiocinari comparatur ad intelligere sicut moveri ad quiescere vel acquirere ad habere: quorum unum est perfecti, aliud autem imperfecti* (Tommaso, Sum. theol. I 79 8) e prima di lui Aristotele che distingueva *διανοεῖσθαι* (ratiocinare) da *νοεῖν* (intelligere) (cfr. Aristotele, Anima 14, 408b 3, 6,9 e 24). Dunque, il termine intelligenza si adatterebbe bene alle proprietà dell'automa, che sarebbe, secondo Tommaso d'Aquino, intelligente ma non raziocinante o ancora, forse, sempre secondo Tommaso, dotato di *intellectus practicus *ma non di *intellectus speculativus* che contemplerebbe la verità. Ricordo un insegnate salesiano in prima media che diceva che nell'etimologia delle parole sono nascosti i segreti dell'umanità. Con i saluti più cordiali, Giancarlo On Tue, Mar 19, 2019 at 8:24 AM Enrico Nardelli <nardelli@mat.uniroma2.it> wrote:
Caro Vincenzo
quella che chiamiamo "intelligenza artificiale", che è quella "di grande rilevanza in un mondo digitalizzato", non è forse proprio "fondata su una dimensione puramente ed esclusivamente simbolica"?
Non ho letto "Embodied Mind" ma sono assolutamente d'accordo con quanto racconti delle sue tesi: non si può davvero parlare di "intelligenza", nel senso che da persone diamo a questo termine, se non si tiene conto il corpo in cui si manifesta e insieme al quale si sviluppa.
Di conseguenza, se l'intelligenza è solo quella "incarnata" allora quella che chiamiamo "intelligenza artificiale" non possiede "intelligenza" e dovrebbe essere ribattezzata "deduzione automatica" o "ragionamento automatico" o qualcosa di simile...
Su queste basi il libro di Searle mi sembrerebbe quindi rilevante.
E sono d'accordo con Giacomo che usare lo stesso nome "intelligenza" per due fenomeni radicalmente diversi quali quella delle persone e quella delle macchine non rende un bel servizio alla diffusione, tra chi non è addetto ai lavori, di una corretta conoscenza delle questioni in gioco.
Purtroppo, come il termine "informatica" è usato da tutto quanto va dall'operatività più spicciola (non riesco a stampare) alla teoria più elevata (P=NP?), così temo che dobbiamo sopravvivere con questo utilizzo di "intelligenza".
Ma forse dovremmo anche spenderci di più in divulgazione... :-)
Ciao, Enrico
Il 16/03/2019 13:25, Vincenzo Mario Bruno Giorgino ha scritto:
Perché il suo fondare l'intelligenza su una dimensione puramente ed esclusivamente simbolica lo tiene lontano da alcuni dei più interessanti sviluppi avvenuti negli ultimi 30 anni e di grande rilevanza in un mondo digitalizzato:
-- EN
===================================================================== Prof. Enrico Nardelli Dipartimento di Matematica - Universita' di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it home page: http://www.mat.uniroma2.it/~nardelli blog: http://www.ilfattoquotidiano.it/blog/enardelli/ http://link-and-think.blogspot.it/ ===================================================================== --
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
On March 19, 2019 6:32:54 PM UTC, GC F <gcfrosio@gmail.com> wrote:
Ricordo un insegnate salesiano in prima media che diceva che nell'etimologia delle parole sono nascosti i segreti dell'umanità.
Su questo mi avrebbe trovato d'accordo. Con lo scorrere del tempo, nella lingua stratifica l'esperienza e la riflessione collettiva di una popolazione. Ma la nostra è una posizione molto minoritaria in questo momento. Pensa che gli americani hanno inventato una locuzione per opporsi a qualunque uso dell'etimologia per veicolare un intuizione: "etymological fallacy". C'è pure una pagina Wikipedia: https://en.m.wikipedia.org/wiki/Etymological_fallacy :-) Non sia mai che chi di storia e cultura ne abbia stratificata parecchia anche solo nei muri, si possa trovare in vantaggio dialettico! :-D
Dunque, il termine intelligenza si adatterebbe bene alle proprietà dell'automa, che sarebbe, secondo Tommaso d'Aquino, intelligente ma non raziocinante o ancora, forse, sempre secondo Tommaso, dotato di *intellectus practicus* ma non di *intellectus speculativus* che contemplerebbe la verità.
Io conosco due possibili etimologie di intelligenza: - intus legere: leggere (comprendere) in profondita - inter legere: leggere fra le righe, comprendere oltre l'evidenza, al di là delle apparenze Le AI non sanno fare niente di tutto questo. La riflessione di Tommaso d'Aquino era volta ad altre domande. E dubito che avrebbe preso bene l'interazione con Alexa... :-) L'automa non ha alcun intelletto. È una cosa. Un oggetto che esegue pedissequamente la propria programmazione, una istruzione dopo l'altra. Qualche programma è scritto in modo da cambiare, in modo opaco (aka estremamente costoso da debuggare), la propria configurazione a fronte di determinati input. E questo (a causa del linguaggio con cui viene impropriamente descritto) può venire erroneamente interpretato come "apprendimento", perché ovviamente se cambi la configurazione di un programma questo poi si comporta in un modo diverso. Ma se parliamo più semplicemente di input, output e configurazione, tutto diventa piu chiaro e semplice. Una rete neurale artificiale non solo non ha, ma non ha bisogno di intelligenza per funzionare. Per questo non dovremmo chiamarla rete neurale, perché non ha nulla che ricordi lontanamente un neurone, umano o animale. È un insieme di matrici numeriche nella memoria di un computer che viene usato per fare poco più che somme e moltiplicazioni su dei numeri in input al fine di ottenere dei numeri in output. Queste matrici sono ottenute con un processo statistico di calibrazione che parte (di solito) da valori casuali o pseudo casuali e cerca di modificarli iterattivamente per approssimare i risultati noti. Tutto qui. Niente intelligenza (eccetto quella umana). Niente magia. Niente poesia. Niente. Solo codice e dati. Lunghe sequenze di zero e uno. "Se è in Python è Machine Learning, se è in PowerPoint è Artificial Intelligence". Giacomo
Non sono d'accordo. Mi pare che "*ratiocinari comparatur ad intelligere sicut moveri ad quiescere vel acquirere ad habere" *esattamente rappresenti un possibile distinzione tra intelligenza computazionale e biologica. Quindi *intelligere*, e intelligenza, rimane termine che ben si può applicare alla macchina. Ovviamente, Tommaso parlava d'altro ma il pensiero è assoluto e *mutatis mutandis* applicabile a scenari ulteriori. Infine, non ho competenze tecniche e ho conoscenze aneddotiche limitate ma questo (nel caso sia come rappresentato): http://www.cloudpainter.com/ (in particolare questa descrizione del processo creativo: https://www.youtube.com/watch?v=h8QKcHWKKvI&t=30s) mi pare si approssimi in maniera sorprendente al processo creativo umano. Mi pare, in conclusione, irrilevante che da un lato vi siano sequenze di 0 e 1 e dall'altro sinapsi neuronali. Rimangono due forme di intelligenza, *quorum unum est perfecti, aliud autem imperfecti* (per ora), come dice Tommaso. Con i saluti più cordiali, Giancarlo On Wed, Mar 20, 2019 at 12:09 AM Giacomo <giacomo@tesio.it> wrote:
On March 19, 2019 6:32:54 PM UTC, GC F <gcfrosio@gmail.com> wrote:
Ricordo un insegnate salesiano in prima media che diceva che nell'etimologia delle parole sono nascosti i segreti dell'umanità.
Su questo mi avrebbe trovato d'accordo.
Con lo scorrere del tempo, nella lingua stratifica l'esperienza e la riflessione collettiva di una popolazione.
Ma la nostra è una posizione molto minoritaria in questo momento. Pensa che gli americani hanno inventato una locuzione per opporsi a qualunque uso dell'etimologia per veicolare un intuizione: "etymological fallacy".
C'è pure una pagina Wikipedia: https://en.m.wikipedia.org/wiki/Etymological_fallacy :-)
Non sia mai che chi di storia e cultura ne abbia stratificata parecchia anche solo nei muri, si possa trovare in vantaggio dialettico! :-D
Dunque, il termine intelligenza si adatterebbe bene alle proprietà dell'automa, che sarebbe, secondo Tommaso d'Aquino, intelligente ma non raziocinante o ancora, forse, sempre secondo Tommaso, dotato di *intellectus practicus* ma non di *intellectus speculativus* che contemplerebbe la verità.
Io conosco due possibili etimologie di intelligenza:
- intus legere: leggere (comprendere) in profondita - inter legere: leggere fra le righe, comprendere oltre l'evidenza, al di là delle apparenze
Le AI non sanno fare niente di tutto questo.
La riflessione di Tommaso d'Aquino era volta ad altre domande. E dubito che avrebbe preso bene l'interazione con Alexa... :-)
L'automa non ha alcun intelletto. È una cosa. Un oggetto che esegue pedissequamente la propria programmazione, una istruzione dopo l'altra.
Qualche programma è scritto in modo da cambiare, in modo opaco (aka estremamente costoso da debuggare), la propria configurazione a fronte di determinati input. E questo (a causa del linguaggio con cui viene impropriamente descritto) può venire erroneamente interpretato come "apprendimento", perché ovviamente se cambi la configurazione di un programma questo poi si comporta in un modo diverso.
Ma se parliamo più semplicemente di input, output e configurazione, tutto diventa piu chiaro e semplice.
Una rete neurale artificiale non solo non ha, ma non ha bisogno di intelligenza per funzionare.
Per questo non dovremmo chiamarla rete neurale, perché non ha nulla che ricordi lontanamente un neurone, umano o animale. È un insieme di matrici numeriche nella memoria di un computer che viene usato per fare poco più che somme e moltiplicazioni su dei numeri in input al fine di ottenere dei numeri in output. Queste matrici sono ottenute con un processo statistico di calibrazione che parte (di solito) da valori casuali o pseudo casuali e cerca di modificarli iterattivamente per approssimare i risultati noti.
Tutto qui. Niente intelligenza (eccetto quella umana). Niente magia. Niente poesia. Niente.
Solo codice e dati. Lunghe sequenze di zero e uno.
"Se è in Python è Machine Learning, se è in PowerPoint è Artificial Intelligence".
Giacomo
On 20/03/2019, GC F <gcfrosio@gmail.com> wrote:
Non sono d'accordo.
Meno male! :-) Solo dal confronto e dalla sintesi di prospettive possiamo imparare qualcosa.
Mi pare che "*ratiocinari comparatur ad intelligere sicut moveri ad quiescere vel acquirere ad habere" *esattamente rappresenti un possibile distinzione tra intelligenza computazionale e biologica. Quindi *intelligere*, e intelligenza, rimane termine che ben si può applicare alla macchina. Ovviamente, Tommaso parlava d'altro ma il pensiero è assoluto e *mutatis mutandis* applicabile a scenari ulteriori.
Purtroppo non conosco Tommaso d'Aquino così bene da poterne indovinare il pensiero. Le sue parole, cambiate le mutande, si possono caricare di nuovi significati e dunque possono applicarsi a nuovi scenari. O possono semplicemente stimolare una riflessione. Ma non credo che possiamo sorvolare sui 700 anni che sono passati dalla Summa theologiae. Abbiamo imparato molto sull'uomo. E forse anche qualcosa su Dio.
Infine, non ho competenze tecniche e ho conoscenze aneddotiche limitate
Temo, con tutto il rispetto, che sia questo il problema. La bellezza (e l'intelligenza) sta negli occhi di chi guarda.
questo (nel caso sia come rappresentato): http://www.cloudpainter.com/ (in particolare questa descrizione del processo creativo: https://www.youtube.com/watch?v=h8QKcHWKKvI&t=30s) mi pare si approssimi in maniera sorprendente al processo creativo umano.
Splendido esempio. Ad un minuto e 39 https://youtu.be/h8QKcHWKKvI?t=99 Van Arman dice:
I wasn't sure how to make it more creative and I thought I'd reached the limits of computational creativity and I noticed that deep learning was making some pretty rapid advances.
then, the more I looked at it, the more I realized that some of itscreative capabilities were approaching human parity and I began to wonder if there was even that big of a difference between a human and a computational creativity
I punti chiave qui sono - "deep learning" "advances" - "the more I looked at it, the more I realized..." Siamo esseri umani. Vediamo draghi e pesci e unicorni guardando le nuvole.. figurati cosa possiamo riuscire a vedere contemplando un computer che muove un pennello!
Mi pare, in conclusione, irrilevante che da un lato vi siano sequenze di 0 e 1 e dall'altro sinapsi neuronali. Rimangono due forme di intelligenza
Questo è un atto di fede. Ma per definire una rete neurale intelligente, hai bisogno di una definizione di intelligenza ad hoc. Una rete neurale riproduce una delle infinite funzioni che passano entro un errore dalle osservazioni di calibrazione selezionata in modo (pseudo) casuale attraverso un processo statistico. La potenza di calcolo dei computer moderni, i dati disponibili e l'intelligenza umana di chi utilizza queste tecniche produce risultati sorprendenti... per chi non sa come funzionano.
*quorum unum est perfecti, aliud autem imperfecti* (per ora), come dice Tommaso.
Beh, naturalmente l'autorità del Doctor Angelicus avrebbe chiuso il dibattito... nel 1500. Ma d'altro canto io sarei già stato bruciato nel rogo... da anni! :-D Oggi obbietterei alla "perfezione" della razionalità. E alla limitatezza della intelligenza, che non è (o quanto meno non è solo) razionale.
Con i saluti più cordiali,
Giancarlo
A presto! E grazie della chiacchierata! Giacomo
Un giorno, dopo molti anni di collaborazione, la direzione de La Stampa mi cacciò accusandomi di essere un estremista. Da quel giorno scopro spesso di avere opinioni molto diverse da quelle dominanti, ma generalmente scelgo di non manifestarle, sopratutto se sono autorevoli le opinioni dominanti diverse dalle mie. Sulla questione dell'intelligenza artificiale ho un'opinione molto diversa da quella dominante, ma avendo scoperto che alcuni autorevoli colleghi hanno manifestato su Nexa idee vicine alle mie, ho deciso di rinunciare alla prudenza e pronunciarmi. Speriamo che Nexa non mi cacci come fece La Stampa. Alcuni amici che ni hanno preceduto su Nexa hanno parlato di un'intelligenza artificiale "diversa". Da "estremista" io affermo invece che l'intelligenza artificiale non esiste. Conosco le previsioni di alcuni autorevoli studiosi, stelle di prima grandezza nel firmamento dell'informatica, secondo le quali nel 2029 la capacità di elaborazione di un singolo processore INTEL sarà pari alla capacità elaborativa di un cervello umano, mentre nel 2040 la capacità di elaborazione dei computer supererà quella degli individui umani e delle specie pensanti. Io temo che quelle previsioni siano state costruite su modelli biologici destinati ad essere superati in futuro da modelli molto più complessi di quelli nei quali oggi crediamo. Ricordo, ad esempio, che il numero totale di atomi dell'universo può essere scritto con 80 cifre decimali, mentre il numero scritto nel nostro DNA richiede oltre due miliardi di cifre decimali. E' vero che il nostro cervello contiene 100 miliardi di neuroni e che i calcolatori delle prossime generazioni conterranno miliardi di unità centrali di elaborazioni, ma ancora non sappiamo come elaborino informazione i mille miliardi di miliardi di sinapsi che operano nel nostro cervello. Comunque, non intendo negare che si stia aprendo un universo di nuove aree applicative di grande rilevanza anche industriale ed economica, come la guida di veicoli o la diagnosi automatica di patologie mediche, ma la loro realizzazione non sarà il frutto di una magica intelligenza artificiale, ma il prodotto di tanta intelligenza naturale e nuove difficili discipline scientifiche, come "data mining" e "deep learning". E' una sfida internazionale alla quale un paese come il nostro deve assolutamente partecipare ai fini della sua sopravvivenza. A questo scopo non serviranno nè la partecipazione ad un astratto dibattito internazionale con Putin e Xi Jinping, nè l'acquisizione "chiavi in mano" di prodotti del mercato, ma molto studio a partire dalla scuola primaria e moltissimo lavoro nei laboratori di ricerca e nelle imprese. Il 20/03/2019 12:41, GC F ha scritto:
Non sono d'accordo. Mi pare che "/ratiocinari comparatur ad intelligere sicut moveri ad _quiescere_ vel acquirere ad _habere_" /esattamente rappresenti un possibile distinzione tra intelligenza computazionale e biologica. Quindi /intelligere/, e intelligenza, rimane termine che ben si può applicare alla macchina. Ovviamente, Tommaso parlava d'altro ma il pensiero è assoluto e /mutatis mutandis/ applicabile a scenari ulteriori.
Infine, non ho competenze tecniche e ho conoscenze aneddotiche limitate ma questo (nel caso sia come rappresentato): http://www.cloudpainter.com/ (in particolare questa descrizione del processo creativo: https://www.youtube.com/watch?v=h8QKcHWKKvI&t=30s) mi pare si approssimi in maniera sorprendente al processo creativo umano. Mi pare, in conclusione, irrilevante che da un lato vi siano sequenze di 0 e 1 e dall'altro sinapsi neuronali. Rimangono due forme di intelligenza, /quorum unum est perfecti, aliud autem imperfecti/(per ora), come dice Tommaso.
Con i saluti più cordiali,
Giancarlo
On Wed, Mar 20, 2019 at 12:09 AM Giacomo <giacomo@tesio.it <mailto:giacomo@tesio.it>> wrote:
On March 19, 2019 6:32:54 PM UTC, GC F <gcfrosio@gmail.com <mailto:gcfrosio@gmail.com>> wrote: >Ricordo un insegnate salesiano in prima media che diceva che >nell'etimologia delle parole sono nascosti i segreti dell'umanità.
Su questo mi avrebbe trovato d'accordo.
Con lo scorrere del tempo, nella lingua stratifica l'esperienza e la riflessione collettiva di una popolazione.
Ma la nostra è una posizione molto minoritaria in questo momento. Pensa che gli americani hanno inventato una locuzione per opporsi a qualunque uso dell'etimologia per veicolare un intuizione: "etymological fallacy".
C'è pure una pagina Wikipedia: https://en.m.wikipedia.org/wiki/Etymological_fallacy :-)
Non sia mai che chi di storia e cultura ne abbia stratificata parecchia anche solo nei muri, si possa trovare in vantaggio dialettico! :-D
>Dunque, il >termine intelligenza si adatterebbe bene alle proprietà dell'automa, che >sarebbe, secondo Tommaso d'Aquino, intelligente ma non raziocinante o >ancora, forse, sempre secondo Tommaso, dotato di *intellectus practicus* >ma non di *intellectus speculativus* che contemplerebbe la verità.
Io conosco due possibili etimologie di intelligenza:
- intus legere: leggere (comprendere) in profondita - inter legere: leggere fra le righe, comprendere oltre l'evidenza, al di là delle apparenze
Le AI non sanno fare niente di tutto questo.
La riflessione di Tommaso d'Aquino era volta ad altre domande. E dubito che avrebbe preso bene l'interazione con Alexa... :-)
L'automa non ha alcun intelletto. È una cosa. Un oggetto che esegue pedissequamente la propria programmazione, una istruzione dopo l'altra.
Qualche programma è scritto in modo da cambiare, in modo opaco (aka estremamente costoso da debuggare), la propria configurazione a fronte di determinati input. E questo (a causa del linguaggio con cui viene impropriamente descritto) può venire erroneamente interpretato come "apprendimento", perché ovviamente se cambi la configurazione di un programma questo poi si comporta in un modo diverso.
Ma se parliamo più semplicemente di input, output e configurazione, tutto diventa piu chiaro e semplice.
Una rete neurale artificiale non solo non ha, ma non ha bisogno di intelligenza per funzionare.
Per questo non dovremmo chiamarla rete neurale, perché non ha nulla che ricordi lontanamente un neurone, umano o animale. È un insieme di matrici numeriche nella memoria di un computer che viene usato per fare poco più che somme e moltiplicazioni su dei numeri in input al fine di ottenere dei numeri in output. Queste matrici sono ottenute con un processo statistico di calibrazione che parte (di solito) da valori casuali o pseudo casuali e cerca di modificarli iterattivamente per approssimare i risultati noti.
Tutto qui. Niente intelligenza (eccetto quella umana). Niente magia. Niente poesia. Niente.
Solo codice e dati. Lunghe sequenze di zero e uno.
"Se è in Python è Machine Learning, se è in PowerPoint è Artificial Intelligence".
Giacomo
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Personalmente, ho due certezze. 1) La scelta dell'espressione "intelligenza artificiale" è straordinariamente intelligente dal punto di vista del marketing. 2) È stupido pensare che ci sia un significato univoco dell'espressione "intelligenza artificiale". IMHO, per evitare superflue perdite di tempo sui forvianti significati impliciti d'un espressione chiaramente (e volutamente) ambigua, per riferirsi genericamente alle tecnologie che si includono nell'espressione "intelligenza artificiale" sarebbe meglio usare altre espressioni. Chessò, "supercazzola artificiale". m.c. In data venerdì 22 marzo 2019 18:55:09 CET, armeo@mail.nexacenter.org ha scritto:
Un giorno, dopo molti anni di collaborazione, la direzione de La Stampa mi cacciò accusandomi di essere un estremista. Da quel giorno scopro spesso di avere opinioni molto diverse da quelle dominanti, ma generalmente scelgo di non manifestarle, sopratutto se sono autorevoli le opinioni dominanti diverse dalle mie.
Sulla questione dell'intelligenza artificiale ho un'opinione molto diversa da quella dominante, ma avendo scoperto che alcuni autorevoli colleghi hanno manifestato su Nexa idee vicine alle mie, ho deciso di rinunciare alla prudenza e pronunciarmi. Speriamo che Nexa non mi cacci come fece La Stampa.
Alcuni amici che ni hanno preceduto su Nexa hanno parlato di un'intelligenza artificiale "diversa". Da "estremista" io affermo invece che l'intelligenza artificiale non esiste.
Conosco le previsioni di alcuni autorevoli studiosi, stelle di prima grandezza nel firmamento dell'informatica, secondo le quali nel 2029 la capacità di elaborazione di un singolo processore INTEL sarà pari alla capacità elaborativa di un cervello umano, mentre nel 2040 la capacità di elaborazione dei computer supererà quella degli individui umani e delle specie pensanti.
Io temo che quelle previsioni siano state costruite su modelli biologici destinati ad essere superati in futuro da modelli molto più complessi di quelli nei quali oggi crediamo. Ricordo, ad esempio, che il numero totale di atomi dell'universo può essere scritto con 80 cifre decimali, mentre il numero scritto nel nostro DNA richiede oltre due miliardi di cifre decimali. E' vero che il nostro cervello contiene 100 miliardi di neuroni e che i calcolatori delle prossime generazioni conterranno miliardi di unità centrali di elaborazioni, ma ancora non sappiamo come elaborino informazione i mille miliardi di miliardi di sinapsi che operano nel nostro cervello.
Comunque, non intendo negare che si stia aprendo un universo di nuove aree applicative di grande rilevanza anche industriale ed economica, come la guida di veicoli o la diagnosi automatica di patologie mediche, ma la loro realizzazione non sarà il frutto di una magica intelligenza artificiale, ma il prodotto di tanta intelligenza naturale e nuove difficili discipline scientifiche, come "data mining" e "deep learning". E' una sfida internazionale alla quale un paese come il nostro deve assolutamente partecipare ai fini della sua sopravvivenza. A questo scopo non serviranno nè la partecipazione ad un astratto dibattito internazionale con Putin e Xi Jinping, nè l'acquisizione "chiavi in mano" di prodotti del mercato, ma molto studio a partire dalla scuola primaria e moltissimo lavoro nei laboratori di ricerca e nelle imprese.
Il 20/03/2019 12:41, GC F ha scritto:
Non sono d'accordo. Mi pare che "/ratiocinari comparatur ad intelligere sicut moveri ad _quiescere_ vel acquirere ad _habere_" /esattamente rappresenti un possibile distinzione tra intelligenza computazionale e biologica. Quindi /intelligere/, e intelligenza, rimane termine che ben si può applicare alla macchina. Ovviamente, Tommaso parlava d'altro ma il pensiero è assoluto e /mutatis mutandis/ applicabile a scenari ulteriori.
Infine, non ho competenze tecniche e ho conoscenze aneddotiche limitate ma questo (nel caso sia come rappresentato): http://www.cloudpainter.com/ (in particolare questa descrizione del processo creativo: https://www.youtube.com/watch?v=h8QKcHWKKvI&t=30s) mi pare si approssimi in maniera sorprendente al processo creativo umano. Mi pare, in conclusione, irrilevante che da un lato vi siano sequenze di 0 e 1 e dall'altro sinapsi neuronali. Rimangono due forme di intelligenza, /quorum unum est perfecti, aliud autem imperfecti/(per ora), come dice Tommaso.
Con i saluti più cordiali,
Giancarlo
On Wed, Mar 20, 2019 at 12:09 AM Giacomo <giacomo@tesio.it
<mailto:giacomo@tesio.it>> wrote: On March 19, 2019 6:32:54 PM UTC, GC F <gcfrosio@gmail.com
<mailto:gcfrosio@gmail.com>> wrote: >Ricordo un insegnate salesiano in prima media che diceva che >nell'etimologia delle parole sono nascosti i segreti dell'umanità.
Su questo mi avrebbe trovato d'accordo.
Con lo scorrere del tempo, nella lingua stratifica l'esperienza e la riflessione collettiva di una popolazione.
Ma la nostra è una posizione molto minoritaria in questo momento. Pensa che gli americani hanno inventato una locuzione per opporsi a qualunque uso dell'etimologia per veicolare un intuizione: "etymological fallacy".
C'è pure una pagina Wikipedia: https://en.m.wikipedia.org/wiki/Etymological_fallacy :-)
Non sia mai che chi di storia e cultura ne abbia stratificata parecchia anche solo nei muri, si possa trovare in vantaggio dialettico! :-D
>Dunque, il >termine intelligenza si adatterebbe bene alle proprietà
dell'automa, che
>sarebbe, secondo Tommaso d'Aquino, intelligente ma non raziocinante o >ancora, forse, sempre secondo Tommaso, dotato di *intellectus
practicus*
>ma non di *intellectus speculativus* che contemplerebbe la verità.
Io conosco due possibili etimologie di intelligenza:
- intus legere: leggere (comprendere) in profondita - inter legere: leggere fra le righe, comprendere oltre l'evidenza, al di là delle apparenze
Le AI non sanno fare niente di tutto questo.
La riflessione di Tommaso d'Aquino era volta ad altre domande. E dubito che avrebbe preso bene l'interazione con Alexa... :-)
L'automa non ha alcun intelletto. È una cosa. Un oggetto che esegue pedissequamente la propria programmazione, una istruzione dopo l'altra.
Qualche programma è scritto in modo da cambiare, in modo opaco (aka estremamente costoso da debuggare), la propria configurazione a fronte di determinati input. E questo (a causa del linguaggio con cui viene impropriamente descritto) può venire erroneamente interpretato come "apprendimento", perché ovviamente se cambi la configurazione di un programma questo poi si comporta in un modo diverso.
Ma se parliamo più semplicemente di input, output e configurazione, tutto diventa piu chiaro e semplice.
Una rete neurale artificiale non solo non ha, ma non ha bisogno di intelligenza per funzionare.
Per questo non dovremmo chiamarla rete neurale, perché non ha nulla che ricordi lontanamente un neurone, umano o animale. È un insieme di matrici numeriche nella memoria di un computer che viene usato per fare poco più che somme e moltiplicazioni su dei numeri in input al fine di ottenere dei numeri in output. Queste matrici sono ottenute con un processo statistico di calibrazione che parte (di solito) da valori casuali o pseudo casuali e cerca di modificarli iterattivamente per approssimare i risultati noti.
Tutto qui. Niente intelligenza (eccetto quella umana). Niente magia. Niente poesia. Niente.
Solo codice e dati. Lunghe sequenze di zero e uno.
"Se è in Python è Machine Learning, se è in PowerPoint è Artificial Intelligence".
Giacomo
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
non credo che fu fatta per ragioni di marketing... all'epoca (agosto del 1955) erano in 4 ad occuparsene... questo e' il paper originale in cui apparve il termine per la prima volta http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html We propose that a 2 month, 10 man study of artificial intelligence be carried out during the summer of 1956 at Dartmouth College in Hanover, New Hampshire. The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves. We think that a significant advance can be made in one or more of these problems if a carefully selected group of scientists work on it together for a summer. (ottimisti) ciao!, s. On 24/03/2019 14:49, Marco Ciurcina wrote:
Personalmente, ho due certezze.
1) La scelta dell'espressione "intelligenza artificiale" è straordinariamente intelligente dal punto di vista del marketing.
2) È stupido pensare che ci sia un significato univoco dell'espressione "intelligenza artificiale".
IMHO, per evitare superflue perdite di tempo sui forvianti significati impliciti d'un espressione chiaramente (e volutamente) ambigua, per riferirsi genericamente alle tecnologie che si includono nell'espressione "intelligenza artificiale" sarebbe meglio usare altre espressioni.
Chessò, "supercazzola artificiale".
m.c.
In data venerdì 22 marzo 2019 18:55:09 CET, armeo@mail.nexacenter.org ha scritto:
Un giorno, dopo molti anni di collaborazione, la direzione de La Stampa mi cacciò accusandomi di essere un estremista. Da quel giorno scopro spesso di avere opinioni molto diverse da quelle dominanti, ma generalmente scelgo di non manifestarle, sopratutto se sono autorevoli le opinioni dominanti diverse dalle mie.
Sulla questione dell'intelligenza artificiale ho un'opinione molto diversa da quella dominante, ma avendo scoperto che alcuni autorevoli colleghi hanno manifestato su Nexa idee vicine alle mie, ho deciso di rinunciare alla prudenza e pronunciarmi. Speriamo che Nexa non mi cacci come fece La Stampa.
Alcuni amici che ni hanno preceduto su Nexa hanno parlato di un'intelligenza artificiale "diversa". Da "estremista" io affermo invece che l'intelligenza artificiale non esiste.
Conosco le previsioni di alcuni autorevoli studiosi, stelle di prima grandezza nel firmamento dell'informatica, secondo le quali nel 2029 la capacità di elaborazione di un singolo processore INTEL sarà pari alla capacità elaborativa di un cervello umano, mentre nel 2040 la capacità di elaborazione dei computer supererà quella degli individui umani e delle specie pensanti.
Io temo che quelle previsioni siano state costruite su modelli biologici destinati ad essere superati in futuro da modelli molto più complessi di quelli nei quali oggi crediamo. Ricordo, ad esempio, che il numero totale di atomi dell'universo può essere scritto con 80 cifre decimali, mentre il numero scritto nel nostro DNA richiede oltre due miliardi di cifre decimali. E' vero che il nostro cervello contiene 100 miliardi di neuroni e che i calcolatori delle prossime generazioni conterranno miliardi di unità centrali di elaborazioni, ma ancora non sappiamo come elaborino informazione i mille miliardi di miliardi di sinapsi che operano nel nostro cervello.
Comunque, non intendo negare che si stia aprendo un universo di nuove aree applicative di grande rilevanza anche industriale ed economica, come la guida di veicoli o la diagnosi automatica di patologie mediche, ma la loro realizzazione non sarà il frutto di una magica intelligenza artificiale, ma il prodotto di tanta intelligenza naturale e nuove difficili discipline scientifiche, come "data mining" e "deep learning". E' una sfida internazionale alla quale un paese come il nostro deve assolutamente partecipare ai fini della sua sopravvivenza. A questo scopo non serviranno nè la partecipazione ad un astratto dibattito internazionale con Putin e Xi Jinping, nè l'acquisizione "chiavi in mano" di prodotti del mercato, ma molto studio a partire dalla scuola primaria e moltissimo lavoro nei laboratori di ricerca e nelle imprese.
Il 20/03/2019 12:41, GC F ha scritto:
Non sono d'accordo. Mi pare che "/ratiocinari comparatur ad intelligere sicut moveri ad _quiescere_ vel acquirere ad _habere_" /esattamente rappresenti un possibile distinzione tra intelligenza computazionale e biologica. Quindi /intelligere/, e intelligenza, rimane termine che ben si può applicare alla macchina. Ovviamente, Tommaso parlava d'altro ma il pensiero è assoluto e /mutatis mutandis/ applicabile a scenari ulteriori.
Infine, non ho competenze tecniche e ho conoscenze aneddotiche limitate ma questo (nel caso sia come rappresentato): http://www.cloudpainter.com/ (in particolare questa descrizione del processo creativo: https://www.youtube.com/watch?v=h8QKcHWKKvI&t=30s) mi pare si approssimi in maniera sorprendente al processo creativo umano. Mi pare, in conclusione, irrilevante che da un lato vi siano sequenze di 0 e 1 e dall'altro sinapsi neuronali. Rimangono due forme di intelligenza, /quorum unum est perfecti, aliud autem imperfecti/(per ora), come dice Tommaso.
Con i saluti più cordiali,
Giancarlo
On Wed, Mar 20, 2019 at 12:09 AM Giacomo <giacomo@tesio.it
<mailto:giacomo@tesio.it>> wrote: On March 19, 2019 6:32:54 PM UTC, GC F <gcfrosio@gmail.com
<mailto:gcfrosio@gmail.com>> wrote: >Ricordo un insegnate salesiano in prima media che diceva che >nell'etimologia delle parole sono nascosti i segreti dell'umanità.
Su questo mi avrebbe trovato d'accordo.
Con lo scorrere del tempo, nella lingua stratifica l'esperienza e la riflessione collettiva di una popolazione.
Ma la nostra è una posizione molto minoritaria in questo momento. Pensa che gli americani hanno inventato una locuzione per opporsi a qualunque uso dell'etimologia per veicolare un intuizione: "etymological fallacy".
C'è pure una pagina Wikipedia: https://en.m.wikipedia.org/wiki/Etymological_fallacy :-)
Non sia mai che chi di storia e cultura ne abbia stratificata parecchia anche solo nei muri, si possa trovare in vantaggio dialettico! :-D
>Dunque, il >termine intelligenza si adatterebbe bene alle proprietà
dell'automa, che
>sarebbe, secondo Tommaso d'Aquino, intelligente ma non raziocinante o >ancora, forse, sempre secondo Tommaso, dotato di *intellectus
practicus*
>ma non di *intellectus speculativus* che contemplerebbe la verità.
Io conosco due possibili etimologie di intelligenza:
- intus legere: leggere (comprendere) in profondita - inter legere: leggere fra le righe, comprendere oltre l'evidenza, al di là delle apparenze
Le AI non sanno fare niente di tutto questo.
La riflessione di Tommaso d'Aquino era volta ad altre domande. E dubito che avrebbe preso bene l'interazione con Alexa... :-)
L'automa non ha alcun intelletto. È una cosa. Un oggetto che esegue pedissequamente la propria programmazione, una istruzione dopo l'altra.
Qualche programma è scritto in modo da cambiare, in modo opaco (aka estremamente costoso da debuggare), la propria configurazione a fronte di determinati input. E questo (a causa del linguaggio con cui viene impropriamente descritto) può venire erroneamente interpretato come "apprendimento", perché ovviamente se cambi la configurazione di un programma questo poi si comporta in un modo diverso.
Ma se parliamo più semplicemente di input, output e configurazione, tutto diventa piu chiaro e semplice.
Una rete neurale artificiale non solo non ha, ma non ha bisogno di intelligenza per funzionare.
Per questo non dovremmo chiamarla rete neurale, perché non ha nulla che ricordi lontanamente un neurone, umano o animale. È un insieme di matrici numeriche nella memoria di un computer che viene usato per fare poco più che somme e moltiplicazioni su dei numeri in input al fine di ottenere dei numeri in output. Queste matrici sono ottenute con un processo statistico di calibrazione che parte (di solito) da valori casuali o pseudo casuali e cerca di modificarli iterattivamente per approssimare i risultati noti.
Tutto qui. Niente intelligenza (eccetto quella umana). Niente magia. Niente poesia. Niente.
Solo codice e dati. Lunghe sequenze di zero e uno.
"Se è in Python è Machine Learning, se è in PowerPoint è Artificial Intelligence".
Giacomo
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- reserve your meeting with me at http://cal.quintarelli.it
On Sun, Mar 24, 2019 at 04:19:24PM +0100, Stefano Quintarelli wrote:
non credo che fu fatta per ragioni di marketing... all'epoca (agosto del 1955) erano in 4 ad occuparsene...
+1 Volevo postare una risposta simile, ma sono stato troppo pigro per cercare il riferimento esatto :-), grazie Stefano. Il termine in origine era pertinente e coerente con la comprensione di allora (per definizione nulla, visto che si cominciava) della complessità del problema. Se mai, c'è stato entrismo sul termine in anni recenti (e direi pure molto recenti) , e certamente si può accusare tale entrismo di essere stato fatto per ragioni di marketing. -- Stefano Zacchiroli . zack@upsilon.cc . upsilon.cc/zack . . o . . . o . o Computer Science Professor . CTO Software Heritage . . . . . o . . . o o Former Debian Project Leader & OSI Board Director . . . o o o . . . o . « the first rule of tautology club is the first rule of tautology club »
On 24/03/2019, Stefano Quintarelli <stefano@quintarelli.it> wrote:
non credo che fu fatta per ragioni di marketing... all'epoca (agosto del 1955) erano in 4 ad occuparsene...
Infatti. Da persone serie quali erano, dichiararono subito che intendevano proseguire nei loro studi sulla base di una _congettura_
The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.
Quando questa congettura è stata provata? Quando è diventata teorema? Mai. Dunque, attraverso hype, marketing e lobbying, una congettura è stata trasformata in atto di fede nelle macchine... e nei sacerdoti capaci di interrogarne ed interpretarne gli auspici.
We think that a significant advance can be made in one or more of these problems if a carefully selected group of scientists work on it together for a summer.
(ottimisti)
L'ottimismo che vedi era fiducia nell'Informatica, nell'informazione automatica (come sarebbe stata definita da Dreyfus anni più tardi), quale strumento di ricerca. Per una triste ironia della storia, proprio McCarthy che coniò il termine "intelligenza artificiale", credeva ad un approccio prettamente simbolico: inventò LISP e ispirò (per contrapposizione) Prolog. L'intelligenza artificiale che aveva in mente era basata sull'elaborazione automatica di conoscenza pregressa per produrre nuova conoscenza. Ciò che oggi chiamiamo "Intelligenza Artificiale" invece, rinuncia alla conoscenza per l'applicazione. Ma hai ragione, non è solo marketing, è Politica! La conoscenza ha sempre il potenziale per modificare la società attraverso la propria diffusione (basti pensare all'effetto dell'invenzione della stampa a caratteri mobili), mentre l'opacità della AI nelle sue varie applicazioni introduce una dipendenza senza diffondere conoscenza. Rende l'uomo meno libero e più debole allo stesso tempo. Non è un caso che venga utilizzata per velocizzare in vario modo i processi che portano all'accentramento della ricchezza, della conoscenza (accumulando dati, che rappresentano informazioni) e del potere. L'AI contemporanea non scommette sull'uomo, ma contro di esso. Chiamarla "Supercazzola Artificiale" come propone Marco sarebbe altrettanto appropriato, ma purtroppo anche altrettanto impreciso. Bisogna probabilmente smettere di usare questa categoria e parlare di tecniche specifiche, nel loro proprio contesto (statistica, analisi simbolica, automazione etc...) IMHO, se rinunciassimo alla ricerca della Pietra Filosofale^W^W Intelligenza, se rinunciassimo alla illusione (per alcuni la speranza) di replicare l'uomo (e dunque farne a meno o quanto meno potergli negare qualsiasi valore intrinseco), le tecnologie di cui parliamo progredirebbero molto più rapidamente. Purtroppo, umiltà e onestà intellettuale non attraggono finanziamenti. La Blockchain sì. Le colonie su Marte, sì. L'intelligenza artificiale, anche. Poi si cade dal pero quando autorevoli riviste scientifiche pubblicano studi privi di riscontri. E' selezione naturale! ;-)
ciao!, s.
A presto! Giacomo
In data domenica 24 marzo 2019 16:19:24 CET, Stefano Quintarelli ha scritto: > non credo che fu fatta per ragioni di marketing... Forse si. Si legge: "The Rockefeller Foundation is being asked to provide financial support for the project on the following basis: 1. Salaries of $1200 for each faculty level participant who is not being supported by his own organization. It is expected, for example, that the participants from Bell Laboratories and IBM Corporation will be supported by these organizations while those from Dartmouth and Harvard will require foundation support. 2. Salaries of $700 for up to two graduate students. 3. Railway fare for participants coming from a distance. 4. Rent for people who are simultaneously renting elsewhere. 5. Secretarial expenses of $650, $500 for a secretary and $150 for duplicating expenses. 6. Organization expenses of $200. (Includes expense of reproducing preliminary work by participants and travel necessary for organization purposes. 7. Expenses for two or three people visiting for a short time. ". Forse lo scopo del documento era quello di raccogliere fondi per fare ricerca. > all'epoca (agosto del 1955) erano in 4 ad occuparsene... > > questo e' il paper originale in cui apparve il termine per la prima volta > http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html Oggi siamo qui https://en.wikipedia.org/wiki/Artificial_intelligence In sostanza, oggi l'espressione "Intelligenza Artificiale" è un'espressione polisenso ed a perimetro variabile. Evidenzio questa frase: "As machines become increasingly capable, tasks considered to require "intelligence" are often removed from the definition of AI, a phenomenon known as the AI effect. A quip in Tesler's Theorem says "AI is whatever hasn't been done yet."" https://en.wikipedia.org/wiki/AI_effect Peraltro, gli autori non credo intendessero definire "intelligenza". Alla fine scrivono: "For the present purpose the artificial intelligence problem is taken to be that of making a machine behave in ways that would be called intelligent if a human were so behaving.". > > We propose that a 2 month, 10 man study of artificial intelligence be > carried out during the summer of 1956 at Dartmouth College in Hanover, > New Hampshire. The study is to proceed on the basis of the conjecture > that every aspect of learning or any other feature of intelligence can > in principle be so precisely described that a machine can be made to > simulate it. An attempt will be made to find how to make machines use > language, form abstractions and concepts, solve kinds of problems now > reserved for humans, and improve themselves. We think that a significant > advance can be made in one or more of these problems if a carefully > selected group of scientists work on it together for a summer. > > (ottimisti) Alla luce dei fatti (64 anni e migliaia di progetti di ricerca dopo) è difficile non essere d'accordo. m.c. > > ciao!, s. > > On 24/03/2019 14:49, Marco Ciurcina wrote: > > Personalmente, ho due certezze. > > > > 1) La scelta dell'espressione "intelligenza artificiale" è > > straordinariamente intelligente dal punto di vista del marketing. > > > > 2) È stupido pensare che ci sia un significato univoco dell'espressione > > "intelligenza artificiale". > > > > IMHO, per evitare superflue perdite di tempo sui forvianti significati > > impliciti d'un espressione chiaramente (e volutamente) ambigua, per > > riferirsi genericamente alle tecnologie che si includono nell'espressione > > "intelligenza artificiale" sarebbe meglio usare altre espressioni. > > > > Chessò, "supercazzola artificiale". > > > > m.c. > > > > > > In data venerdì 22 marzo 2019 18:55:09 CET, armeo@mail.nexacenter.org ha > > > > scritto: > >> Un giorno, dopo molti anni di collaborazione, la direzione de La > >> > >> Stampa mi cacciò accusandomi di essere un estremista. Da quel giorno > >> scopro spesso di avere opinioni molto diverse da quelle dominanti, ma > >> generalmente scelgo di non manifestarle, sopratutto se sono autorevoli > >> le opinioni dominanti diverse dalle mie. > >> > >> Sulla questione dell'intelligenza artificiale ho un'opinione molto > >> > >> diversa da quella dominante, ma avendo scoperto che alcuni autorevoli > >> colleghi hanno manifestato su Nexa idee vicine alle mie, ho deciso di > >> rinunciare alla prudenza e pronunciarmi. Speriamo che Nexa non mi cacci > >> come fece La Stampa. > >> > >> Alcuni amici che ni hanno preceduto su Nexa hanno parlato di > >> > >> un'intelligenza artificiale "diversa". Da "estremista" io affermo invece > >> che l'intelligenza artificiale non esiste. > >> > >> Conosco le previsioni di alcuni autorevoli studiosi, stelle di > >> > >> prima grandezza nel firmamento dell'informatica, secondo le quali nel > >> 2029 la capacità di elaborazione di un singolo processore INTEL sarà > >> pari alla capacità elaborativa di un cervello umano, mentre nel 2040 la > >> capacità di elaborazione dei computer supererà quella degli individui > >> umani e delle specie pensanti. > >> > >> Io temo che quelle previsioni siano state costruite su modelli > >> > >> biologici destinati ad essere superati in futuro da modelli molto più > >> complessi di quelli nei quali oggi crediamo. Ricordo, ad esempio, che il > >> numero totale di atomi dell'universo può essere scritto con 80 cifre > >> decimali, mentre il numero scritto nel nostro DNA richiede oltre due > >> miliardi di cifre decimali. E' vero che il nostro cervello contiene 100 > >> miliardi di neuroni e che i calcolatori delle prossime generazioni > >> conterranno miliardi di unità centrali di elaborazioni, ma ancora non > >> sappiamo come elaborino informazione i mille miliardi di miliardi di > >> sinapsi che operano nel nostro cervello. > >> > >> Comunque, non intendo negare che si stia aprendo un universo di > >> > >> nuove aree applicative di grande rilevanza anche industriale ed > >> economica, come la guida di veicoli o la diagnosi automatica di > >> patologie mediche, ma la loro realizzazione non sarà il frutto di una > >> magica intelligenza artificiale, ma il prodotto di tanta intelligenza > >> naturale e nuove difficili discipline scientifiche, come "data mining" > >> e "deep learning". E' una sfida internazionale alla quale un paese come > >> il nostro deve assolutamente partecipare ai fini della sua > >> sopravvivenza. A questo scopo non serviranno nè la partecipazione ad un > >> astratto dibattito internazionale con Putin e Xi Jinping, nè > >> l'acquisizione "chiavi in mano" di prodotti del mercato, ma molto studio > >> a partire dalla scuola primaria e moltissimo lavoro nei laboratori di > >> ricerca e nelle imprese. > >> > >> Il 20/03/2019 12:41, GC F ha scritto: > >>> Non sono d'accordo. Mi pare che "/ratiocinari comparatur ad > >>> intelligere sicut moveri ad _quiescere_ vel acquirere ad _habere_" > >>> /esattamente rappresenti un possibile distinzione tra intelligenza > >>> computazionale e biologica. Quindi /intelligere/, e intelligenza, > >>> rimane termine che ben si può applicare alla macchina. Ovviamente, > >>> Tommaso parlava d'altro ma il pensiero è assoluto e /mutatis mutandis/ > >>> applicabile a scenari ulteriori. > >>> > >>> Infine, non ho competenze tecniche e ho conoscenze aneddotiche > >>> limitate ma questo (nel caso sia come rappresentato): > >>> http://www.cloudpainter.com/ (in particolare questa descrizione del > >>> processo creativo: https://www.youtube.com/watch?v=h8QKcHWKKvI&t=30s) > >>> mi pare si approssimi in maniera sorprendente al processo creativo > >>> umano. Mi pare, in conclusione, irrilevante che da un lato vi siano > >>> sequenze di 0 e 1 e dall'altro sinapsi neuronali. Rimangono due forme > >>> di intelligenza, /quorum unum est perfecti, aliud autem > >>> imperfecti/(per ora), come dice Tommaso. > >>> > >>> Con i saluti più cordiali, > >>> > >>> Giancarlo > >>> > >>> On Wed, Mar 20, 2019 at 12:09 AM Giacomo <giacomo@tesio.it > >>> > >>> <mailto:giacomo@tesio.it>> wrote: > >>> On March 19, 2019 6:32:54 PM UTC, GC F <gcfrosio@gmail.com > >>> > >>> <mailto:gcfrosio@gmail.com>> wrote: > >>> >Ricordo un insegnate salesiano in prima media che diceva che > >>> >nell'etimologia delle parole sono nascosti i segreti dell'umanità. > >>> > >>> Su questo mi avrebbe trovato d'accordo. > >>> > >>> Con lo scorrere del tempo, nella lingua stratifica l'esperienza e > >>> la riflessione collettiva di una popolazione. > >>> > >>> Ma la nostra è una posizione molto minoritaria in questo momento. > >>> Pensa che gli americani hanno inventato una locuzione per opporsi > >>> a qualunque uso dell'etimologia per veicolare un intuizione: > >>> "etymological fallacy". > >>> > >>> C'è pure una pagina Wikipedia: > >>> https://en.m.wikipedia.org/wiki/Etymological_fallacy :-) > >>> > >>> Non sia mai che chi di storia e cultura ne abbia stratificata > >>> parecchia anche solo nei muri, si possa trovare in vantaggio > >>> dialettico! :-D > >>> > >>> >Dunque, il > >>> >termine intelligenza si adatterebbe bene alle proprietà > >>> > >>> dell'automa, che > >>> > >>> >sarebbe, secondo Tommaso d'Aquino, intelligente ma non > >>> >raziocinante o > >>> >ancora, forse, sempre secondo Tommaso, dotato di *intellectus > >>> > >>> practicus* > >>> > >>> >ma non di *intellectus speculativus* che contemplerebbe la verità. > >>> > >>> Io conosco due possibili etimologie di intelligenza: > >>> > >>> - intus legere: leggere (comprendere) in profondita > >>> - inter legere: leggere fra le righe, comprendere oltre > >>> l'evidenza, al di là delle apparenze > >>> > >>> Le AI non sanno fare niente di tutto questo. > >>> > >>> La riflessione di Tommaso d'Aquino era volta ad altre domande. > >>> E dubito che avrebbe preso bene l'interazione con Alexa... :-) > >>> > >>> > >>> L'automa non ha alcun intelletto. > >>> È una cosa. Un oggetto che esegue pedissequamente la propria > >>> programmazione, una istruzione dopo l'altra. > >>> > >>> Qualche programma è scritto in modo da cambiare, in modo opaco > >>> (aka estremamente costoso da debuggare), la propria configurazione > >>> a fronte di determinati input. > >>> E questo (a causa del linguaggio con cui viene impropriamente > >>> descritto) può venire erroneamente interpretato come > >>> "apprendimento", perché ovviamente se cambi la configurazione di > >>> un programma questo poi si comporta in un modo diverso. > >>> > >>> Ma se parliamo più semplicemente di input, output e > >>> configurazione, tutto diventa piu chiaro e semplice. > >>> > >>> > >>> Una rete neurale artificiale non solo non ha, ma non ha bisogno di > >>> intelligenza per funzionare. > >>> > >>> Per questo non dovremmo chiamarla rete neurale, perché non ha > >>> nulla che ricordi lontanamente un neurone, umano o animale. > >>> È un insieme di matrici numeriche nella memoria di un computer che > >>> viene usato per fare poco più che somme e moltiplicazioni su dei > >>> numeri in input al fine di ottenere dei numeri in output. > >>> Queste matrici sono ottenute con un processo statistico di > >>> calibrazione che parte (di solito) da valori casuali o pseudo > >>> casuali e cerca di modificarli iterattivamente per approssimare i > >>> risultati noti. > >>> > >>> Tutto qui. > >>> Niente intelligenza (eccetto quella umana). > >>> Niente magia. > >>> Niente poesia. > >>> Niente. > >>> > >>> Solo codice e dati. Lunghe sequenze di zero e uno. > >>> > >>> > >>> "Se è in Python è Machine Learning, se è in PowerPoint è > >>> Artificial Intelligence". > >>> > >>> > >>> > >>> Giacomo > >>> > >>> _______________________________________________ > >>> nexa mailing list > >>> nexa@server-nexa.polito.it > >>> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > > > > _______________________________________________ > > nexa mailing list > > nexa@server-nexa.polito.it > > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
On 29/03/2019 14:09, Marco Ciurcina wrote:
In data domenica 24 marzo 2019 16:19:24 CET, Stefano Quintarelli ha scritto:
non credo che fu fatta per ragioni di marketing... Forse si.
allora ogni ricerca finanziata da una fondazione ricade nella stessa categoria "fatta per ragioni di marketing" ? eddaii..
Si legge: "The Rockefeller Foundation is being asked to provide financial support for the project on the following basis: 1. Salaries of $1200 for each faculty level participant who is not being supported by his own organization. It is expected, for example, that the participants from Bell Laboratories and IBM Corporation will be supported by these organizations while those from Dartmouth and Harvard will require foundation support. 2. Salaries of $700 for up to two graduate students. 3. Railway fare for participants coming from a distance. 4. Rent for people who are simultaneously renting elsewhere. 5. Secretarial expenses of $650, $500 for a secretary and $150 for duplicating expenses. 6. Organization expenses of $200. (Includes expense of reproducing preliminary work by participants and travel necessary for organization purposes. 7. Expenses for two or three people visiting for a short time. ". Forse lo scopo del documento era quello di raccogliere fondi per fare ricerca.
-- reserve your meeting with me at http://cal.quintarelli.it
In data venerdì 29 marzo 2019 19:05:06 CET, Stefano Quintarelli ha scritto:
On 29/03/2019 14:09, Marco Ciurcina wrote:
In data domenica 24 marzo 2019 16:19:24 CET, Stefano Quintarelli ha scritto:
non credo che fu fatta per ragioni di marketing...
Forse si.
allora ogni ricerca finanziata da una fondazione ricade nella stessa categoria "fatta per ragioni di marketing" ? La risposta è ovviamente no. E l'affermazione scritta sopra è un sofisma (fallacia del tipo "a dicto simpliciter ad dictum secundum quid", o "illecita generalizzazione").
Il documento "A proposal for the Dartmouth summer research project on artificial intelligence" introduce una nuova espressione ("intelligenza artificiale") e però chiarisce che: "For the present purpose the artificial intelligence problem is taken to be that of making a machine behave in ways that would be called intelligent if a human were so behaving.". Oggi si ritiene che l'espressione "intelligenza artificiale" sia polisenso ed abbia un significato variabile nel tempo. Non tutti i documenti relativi a progetti di ricerca che introducono nuove definizioni che restano così imprecise a distanza di 64 anni. Il documento "A proposal for the Dartmouth summer research project on artificial intelligence" dice che con 2 mesi di lavoro e 10 progetti "a significant advance can be made in one or more of these problems if a carefully selected group of scientists work on it together for a summer.". A distanza di 64 anni e migliaia di progetti di ricerca dopo si può dire che non tutti i documenti relativi a progetti di ricerca sbagliano le previsioni in maniera così evidente. Il documento "A proposal for the Dartmouth summer research project on artificial intelligence" assume a presupposto che "every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it". Non tutti i documenti relativi a progetti di ricerca si basano su un presupposto che (a distanza di 64 anni) pare ragionevole dire che fosse sbagliato: i lavori più recenti ricorrono ai computer quantici (che al tempo non erano ancora stati concepiti) per proporre un framework concettuale che rappresenta e fornisce gli strumenti operativi di una "macchina della vita" https://link.springer.com/content/pdf/10.1007%2Fs10773-016-3177-6.pdf m.c.
Specchio riflesso... Insisto a ritenere che nel 1955 il termine non fosse stato usato per ragioni di marketing. A meno di cambiare la definizione di "marketing" Ciao, s. In data 30 marzo 2019 5:27:16 PM Marco Ciurcina <ciurcina@studiolegale.it> ha scritto: In data venerdì 29 marzo 2019 19:05:06 CET, Stefano Quintarelli ha scritto: On 29/03/2019 14:09, Marco Ciurcina wrote: In data domenica 24 marzo 2019 16:19:24 CET, Stefano Quintarelli ha scritto: non credo che fu fatta per ragioni di marketing... Forse si. allora ogni ricerca finanziata da una fondazione ricade nella stessa categoria "fatta per ragioni di marketing" ? La risposta è ovviamente no. E l'affermazione scritta sopra è un sofisma (fallacia del tipo "a dicto simpliciter ad dictum secundum quid", o "illecita generalizzazione"). Il documento "A proposal for the Dartmouth summer research project on artificial intelligence" introduce una nuova espressione ("intelligenza artificiale") e però chiarisce che: "For the present purpose the artificial intelligence problem is taken to be that of making a machine behave in ways that would be called intelligent if a human were so behaving.". Oggi si ritiene che l'espressione "intelligenza artificiale" sia polisenso ed abbia un significato variabile nel tempo. Non tutti i documenti relativi a progetti di ricerca che introducono nuove definizioni che restano così imprecise a distanza di 64 anni. Il documento "A proposal for the Dartmouth summer research project on artificial intelligence" dice che con 2 mesi di lavoro e 10 progetti "a significant advance can be made in one or more of these problems if a carefully selected group of scientists work on it together for a summer.". A distanza di 64 anni e migliaia di progetti di ricerca dopo si può dire che non tutti i documenti relativi a progetti di ricerca sbagliano le previsioni in maniera così evidente. Il documento "A proposal for the Dartmouth summer research project on artificial intelligence" assume a presupposto che "every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it". Non tutti i documenti relativi a progetti di ricerca si basano su un presupposto che (a distanza di 64 anni) pare ragionevole dire che fosse sbagliato: i lavori più recenti ricorrono ai computer quantici (che al tempo non erano ancora stati concepiti) per proporre un framework concettuale che rappresenta e fornisce gli strumenti operativi di una "macchina della vita" https://link.springer.com/content/pdf/10.1007%2Fs10773-016-3177-6.pdf m.c.
On March 30, 2019 5:53:43 PM UTC, Stefano Quintarelli <Stefano@Quintarelli.it> wrote:
Insisto a ritenere che nel 1955 il termine non fosse stato usato per ragioni di marketing.
Beh, in effetti dopo due guerre mondiali appena concluse, l'intelligenza umana non doveva sembrare così irraggiungibile. ;-)
A meno di cambiare la definizione di "marketing"
Non credo sia necessario. Sai quante articoli su PubMed mia moglie scarta come non affidabili solo sulla base dei conflitti di interesse degli autori? Cosa fanno le aziende farmaceutiche che li finanziano? Beneficenza? Non so se il rapporto fra ricerca e denaro sia mai stato semplice, ma se non lo è adesso.... figurati durante la guerra fredda! Naturalmente oggi si potrebbe stabilire meccanismi per finanziare la ricerca più efficaci, per disaccoppiare la ricerca dalla provenienza dei fondi privati che la rendono possibile. Ma abbiamo consapevolezza del problema? Abbiamo la volontà di risolverlo? Giacomo PS: scusate l'off-topic, ma proprio oggi mia moglie mi faceva notare come l'etica nelle professioni intellettuali non è un problema risolto ben al di là dell'informatica. La medicina ha migliaia di anni eppure... spesso si fa finta do non vedere per non cedere allo sconforto.
In un recente articoletto (un “conceptual paper”, https://nexa.polito.it/node/1531 <https://nexa.polito.it/node/1531> e qui <https://www.emeraldinsight.com/doi/abs/10.1108/DPRG-08-2018-0049> ) , abbiamo preso come riferimento la definizione di Russell & Norvig, 2010 (AI: A modern approach). Sebbene abbiamo criticato nell'articolo l’equivalenza di razionalità con intelligenza, Credo che quella sia una definizione che calza bene molti sistemi attuali di AI "We refer to AI following the mainstream definition of Russell and Norvig (Russell and Norvig, 2010): it is “the study of designing and building intelligent agents (p.30), where “agent” is “anything that can be viewed as perceiving its environment through sensors and acting upon that environment through actuators” (p.34). An intelligent agent “takes the best possible action in a situation” (p.30), i.e. it is a rational agent the one which, for each possible percept sequence, is supposed to “select an action that is expected to maximise its performance measure, given the evidence provided by the percept sequence and whatever built-in knowledge the agent has” (p.37). " Un caro saluto, antonio
Il giorno 30 mar 2019, alle ore 20:39, Giacomo <giacomo@tesio.it <mailto:giacomo@tesio.it>> ha scritto:
On March 30, 2019 5:53:43 PM UTC, Stefano Quintarelli <Stefano@Quintarelli.it <mailto:Stefano@Quintarelli.it>> wrote:
Insisto a ritenere che nel 1955 il termine non fosse stato usato per ragioni di marketing.
Beh, in effetti dopo due guerre mondiali appena concluse, l'intelligenza umana non doveva sembrare così irraggiungibile. ;-)
A meno di cambiare la definizione di "marketing"
Non credo sia necessario.
Sai quante articoli su PubMed mia moglie scarta come non affidabili solo sulla base dei conflitti di interesse degli autori?
Cosa fanno le aziende farmaceutiche che li finanziano? Beneficenza?
Non so se il rapporto fra ricerca e denaro sia mai stato semplice, ma se non lo è adesso.... figurati durante la guerra fredda!
Naturalmente oggi si potrebbe stabilire meccanismi per finanziare la ricerca più efficaci, per disaccoppiare la ricerca dalla provenienza dei fondi privati che la rendono possibile.
Ma abbiamo consapevolezza del problema? Abbiamo la volontà di risolverlo?
Giacomo PS: scusate l'off-topic, ma proprio oggi mia moglie mi faceva notare come l'etica nelle professioni intellettuali non è un problema risolto ben al di là dell'informatica. La medicina ha migliaia di anni eppure... spesso si fa finta do non vedere per non cedere allo sconforto.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Caro Antonio-- grazie per il suggerimento. Può aiutare un dibattito che anche qui su Nexa a volte mi pare avvenire tra sordi. Sono d'accordo con chi ha detto che la questione dell'intelligenza artificiale è oggetto di una forte spinta commerciale e che la sua concettualizzazione risenta di un approccio ideologico, a favore e contro. Gli studiosi dell'oggetto - IA debole e forte, per intenderci - e gli intellettuali che ne discutono tuttavia ne dibattono appunto per definire un lessico comune e identificare pratiche euristiche, altri lo fanno per sviluppare modelli e teorie, costruire prototipi e ottenere risultati in relazione agli obbiettivi che si pongono. Findings scientifici e risultati industriali vengono denominati in maniera diversa ma non sfuggono in genere al metodo scientifico: essi vengono utilizzati per costruire sistemi tecnologici performanti di cui molti di noi hanno esperienza ogni giorno. L'IA di cui dovremmo parlare non è solo quella che conosciamo: " è solo potenza computazionale!" dicono alcuni; "parliamo di una intelligenza artificiale generale capace di svolgere alcune funzioni proprie di un agente intelligente", dicono altri. È giusto parlare di cosa l'IA potrebbe diventare. D'altra parte parliamo di una tecnologia nella sua infanzia. Dal mio modesto punto di vista quello che mi pare spesso mancare in questi dibattiti è una riflessione di carattere scientifico, ed epistemologico, di cosa siano l'intelligenza umana e i suoi correlati neurofisiologici e comportamentali. Concetti definiti diversamente nelle diverse discipline, ma sui cui converrete, la Psicologia si interroga dalla nascita, e rispetto a cui ha identificato da tempo dei punti fermi, costantemente messi alla prova della falsificabilità. Perciò il mio invito è cercare di non dimenticare mai il primo dei due termini del concetto, l'intelligenza. Se infatti ci mettiamo d'accordo sul suo significato potremo meglio accapigliarci sulle distinzioni fra intelligenza umana, animale, e artificiale. un caro saluto Il giorno lun 1 apr 2019 alle ore 09:11 Antonio Vetro' < antonio.vetro@polito.it> ha scritto:
In un recente articoletto (un “conceptual paper”, https://nexa.polito.it/node/1531 e qui <https://www.emeraldinsight.com/doi/abs/10.1108/DPRG-08-2018-0049> ) , abbiamo preso come riferimento la definizione di Russell & Norvig, 2010 (AI: A modern approach). Sebbene abbiamo criticato nell'articolo l’equivalenza di razionalità con intelligenza, Credo che quella sia una definizione che calza bene molti sistemi attuali di AI
"We refer to AI following the mainstream definition of Russell and Norvig (Russell and Norvig, 2010): it is “the study of designing and building intelligent agents (p.30), where “agent” is “anything that can be viewed as perceiving its environment through sensors and acting upon that environment through actuators” (p.34). An intelligent agent “takes the best possible action in a situation” (p.30), i.e. it is a rational agent the one which, for each possible percept sequence, is supposed to “select an action that is expected to maximise its performance measure, given the evidence provided by the percept sequence and whatever built-in knowledge the agent has” (p.37). "
Un caro saluto, antonio
Il giorno 30 mar 2019, alle ore 20:39, Giacomo <giacomo@tesio.it> ha scritto:
On March 30, 2019 5:53:43 PM UTC, Stefano Quintarelli < Stefano@Quintarelli.it> wrote:
Insisto a ritenere che nel 1955 il termine non fosse stato usato per ragioni di marketing.
Beh, in effetti dopo due guerre mondiali appena concluse, l'intelligenza umana non doveva sembrare così irraggiungibile. ;-)
A meno di cambiare la definizione di "marketing"
Non credo sia necessario.
Sai quante articoli su PubMed mia moglie scarta come non affidabili solo sulla base dei conflitti di interesse degli autori?
Cosa fanno le aziende farmaceutiche che li finanziano? Beneficenza?
Non so se il rapporto fra ricerca e denaro sia mai stato semplice, ma se non lo è adesso.... figurati durante la guerra fredda!
Naturalmente oggi si potrebbe stabilire meccanismi per finanziare la ricerca più efficaci, per disaccoppiare la ricerca dalla provenienza dei fondi privati che la rendono possibile.
Ma abbiamo consapevolezza del problema? Abbiamo la volontà di risolverlo?
Giacomo PS: scusate l'off-topic, ma proprio oggi mia moglie mi faceva notare come l'etica nelle professioni intellettuali non è un problema risolto ben al di là dell'informatica. La medicina ha migliaia di anni eppure... spesso si fa finta do non vedere per non cedere allo sconforto.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- Arturo Di Corinto www.dicorinto.it ---------------------------------> AVVERTENZE AI SENSI DEL D.Lgs. 196/2003 Le informazioni contenute in questo messaggio di posta elettronica e/o nel/i file/s allegato/i sono da considerarsi strettamente riservate. Il loro utilizzo è consentito esclusivamente al destinatario del messaggio, per le finalità indicate nel messaggio stesso. Qualora riceviate questo messaggio senza esserne il destinatario, Vi preghiamo cortesemente di darcene notizia via e-mail e di procedere alla distruzione del messaggio stesso, cancellandolo dal Vostro sistema. Conservare il messaggio stesso, divulgarlo anche in parte, distribuirlo ad altri soggetti, copiarlo, od utilizzarlo per finalità diverse, costituisce comportamento contrario ai principi dettati dal D.Lgs. 196/2003
Io non posso scrivere in questo modo, comunque AI ora sono soprattutto per marketing ma io vorrei sapere se la giustizia italiana usano AI? Il giorno lun 1 apr 2019 alle ore 19:46 Arturo Di Corinto < arturo.dicorinto@uniroma1.it> ha scritto:
Caro Antonio-- grazie per il suggerimento. Può aiutare un dibattito che anche qui su Nexa a volte mi pare avvenire tra sordi.
Sono d'accordo con chi ha detto che la questione dell'intelligenza artificiale è oggetto di una forte spinta commerciale e che la sua concettualizzazione risenta di un approccio ideologico, a favore e contro. Gli studiosi dell'oggetto - IA debole e forte, per intenderci - e gli intellettuali che ne discutono tuttavia ne dibattono appunto per definire un lessico comune e identificare pratiche euristiche, altri lo fanno per sviluppare modelli e teorie, costruire prototipi e ottenere risultati in relazione agli obbiettivi che si pongono. Findings scientifici e risultati industriali vengono denominati in maniera diversa ma non sfuggono in genere al metodo scientifico: essi vengono utilizzati per costruire sistemi tecnologici performanti di cui molti di noi hanno esperienza ogni giorno. L'IA di cui dovremmo parlare non è solo quella che conosciamo: " è solo potenza computazionale!" dicono alcuni; "parliamo di una intelligenza artificiale generale capace di svolgere alcune funzioni proprie di un agente intelligente", dicono altri. È giusto parlare di cosa l'IA potrebbe diventare. D'altra parte parliamo di una tecnologia nella sua infanzia. Dal mio modesto punto di vista quello che mi pare spesso mancare in questi dibattiti è una riflessione di carattere scientifico, ed epistemologico, di cosa siano l'intelligenza umana e i suoi correlati neurofisiologici e comportamentali. Concetti definiti diversamente nelle diverse discipline, ma sui cui converrete, la Psicologia si interroga dalla nascita, e rispetto a cui ha identificato da tempo dei punti fermi, costantemente messi alla prova della falsificabilità. Perciò il mio invito è cercare di non dimenticare mai il primo dei due termini del concetto, l'intelligenza. Se infatti ci mettiamo d'accordo sul suo significato potremo meglio accapigliarci sulle distinzioni fra intelligenza umana, animale, e artificiale.
un caro saluto
Il giorno lun 1 apr 2019 alle ore 09:11 Antonio Vetro' < antonio.vetro@polito.it> ha scritto:
In un recente articoletto (un “conceptual paper”, https://nexa.polito.it/node/1531 e qui <https://www.emeraldinsight.com/doi/abs/10.1108/DPRG-08-2018-0049> ) , abbiamo preso come riferimento la definizione di Russell & Norvig, 2010 (AI: A modern approach). Sebbene abbiamo criticato nell'articolo l’equivalenza di razionalità con intelligenza, Credo che quella sia una definizione che calza bene molti sistemi attuali di AI
"We refer to AI following the mainstream definition of Russell and Norvig (Russell and Norvig, 2010): it is “the study of designing and building intelligent agents (p.30), where “agent” is “anything that can be viewed as perceiving its environment through sensors and acting upon that environment through actuators” (p.34). An intelligent agent “takes the best possible action in a situation” (p.30), i.e. it is a rational agent the one which, for each possible percept sequence, is supposed to “select an action that is expected to maximise its performance measure, given the evidence provided by the percept sequence and whatever built-in knowledge the agent has” (p.37). "
Un caro saluto, antonio
Il giorno 30 mar 2019, alle ore 20:39, Giacomo <giacomo@tesio.it> ha scritto:
On March 30, 2019 5:53:43 PM UTC, Stefano Quintarelli < Stefano@Quintarelli.it> wrote:
Insisto a ritenere che nel 1955 il termine non fosse stato usato per ragioni di marketing.
Beh, in effetti dopo due guerre mondiali appena concluse, l'intelligenza umana non doveva sembrare così irraggiungibile. ;-)
A meno di cambiare la definizione di "marketing"
Non credo sia necessario.
Sai quante articoli su PubMed mia moglie scarta come non affidabili solo sulla base dei conflitti di interesse degli autori?
Cosa fanno le aziende farmaceutiche che li finanziano? Beneficenza?
Non so se il rapporto fra ricerca e denaro sia mai stato semplice, ma se non lo è adesso.... figurati durante la guerra fredda!
Naturalmente oggi si potrebbe stabilire meccanismi per finanziare la ricerca più efficaci, per disaccoppiare la ricerca dalla provenienza dei fondi privati che la rendono possibile.
Ma abbiamo consapevolezza del problema? Abbiamo la volontà di risolverlo?
Giacomo PS: scusate l'off-topic, ma proprio oggi mia moglie mi faceva notare come l'etica nelle professioni intellettuali non è un problema risolto ben al di là dell'informatica. La medicina ha migliaia di anni eppure... spesso si fa finta do non vedere per non cedere allo sconforto.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
--
Arturo Di Corinto www.dicorinto.it --------------------------------->
AVVERTENZE AI SENSI DEL D.Lgs. 196/2003 Le informazioni contenute in questo messaggio di posta elettronica e/o nel/i file/s allegato/i sono da considerarsi strettamente riservate. Il loro utilizzo è consentito esclusivamente al destinatario del messaggio, per le finalità indicate nel messaggio stesso. Qualora riceviate questo messaggio senza esserne il destinatario, Vi preghiamo cortesemente di darcene notizia via e-mail e di procedere alla distruzione del messaggio stesso, cancellandolo dal Vostro sistema. Conservare il messaggio stesso, divulgarlo anche in parte, distribuirlo ad altri soggetti, copiarlo, od utilizzarlo per finalità diverse, costituisce comportamento contrario ai principi dettati dal D.Lgs. 196/2003 _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
On 01/04/2019, Arturo Di Corinto <arturo.dicorinto@uniroma1.it> wrote:
Caro Antonio-- grazie per il suggerimento. Può aiutare un dibattito che anche qui su Nexa a volte mi pare avvenire tra sordi.
Fortuna che è un dibattito epistolare, allora! :-D
Dal mio modesto punto di vista quello che mi pare spesso mancare in questi dibattiti è una riflessione di carattere scientifico, ed epistemologico, di cosa siano l'intelligenza umana e i suoi correlati neurofisiologici e comportamentali. Concetti definiti diversamente nelle diverse discipline, ma sui cui converrete, la Psicologia si interroga dalla nascita, e rispetto a cui ha identificato da tempo dei punti fermi, costantemente messi alla prova della falsificabilità.
Parlando di epistemologia: possiamo definire la Psicologia come Scienza senza ridefinire il concetto di Scienza? Possiamo progettare, per ogni affermazione psicologica, un esperimento riproducibile capace di falsificarla?
Perciò il mio invito è cercare di non dimenticare mai il primo dei due termini del concetto, l'intelligenza.
Fortuna che l'oggetto di questo thread continua a ricordarcelo! ;-)
Se infatti ci mettiamo d'accordo sul suo significato potremo meglio accapigliarci sulle distinzioni fra intelligenza umana, animale, e artificiale.
Cos'è l'Intelligenza? Il dibattito che a te appare "fra sordi", evidenzia un dissenso profondo sul significato (e sul valore) di questo termine. Per esempio, secondo me, l'intelligenza è una peculiarità della nostra specie. Persino parlare di intelligenza animale è fallace: è la proiezione della propria esperienza intellettiva su un entità non umana per spiegarne il comportamento. Possiamo definire l'intelligenza in modo da poterla attribuire ad un cane o un cavallo? Certo! Siamo gente pratica... non ci interessano le questioni "filologiche". ;-) Ma perché farlo, se inventare un nuovo termine costa uguale e riduce il rischio di fraintendimenti? La stessa cosa vale, molto di più, per il software. Giacomo
Caro Giacomo- Il giorno mar 2 apr 2019 alle ore 01:10 Giacomo Tesio <giacomo@tesio.it> ha scritto:
On 01/04/2019, Arturo Di Corinto <arturo.dicorinto@uniroma1.it> wrote:
Caro Antonio-- grazie per il suggerimento. Può aiutare un dibattito che anche qui su Nexa a volte mi pare avvenire tra sordi.
Fortuna che è un dibattito epistolare, allora! :-D
Dal mio modesto punto di vista quello che mi pare spesso mancare in questi dibattiti è una riflessione di carattere scientifico, ed epistemologico, di cosa siano l'intelligenza umana e i suoi correlati neurofisiologici e comportamentali. Concetti definiti diversamente nelle diverse discipline, ma sui cui converrete, la Psicologia si interroga dalla nascita, e rispetto a cui ha identificato da tempo dei punti fermi, costantemente messi alla prova della falsificabilità.
Parlando di epistemologia: possiamo definire la Psicologia come Scienza senza ridefinire il concetto di Scienza?
Una tesi del genere non si sentiva dall'800. La Psicologia È una scienza che utilizza il metodo scientifico. La tua affermazione è capziosa.
Possiamo progettare, per ogni affermazione psicologica, un esperimento riproducibile capace di falsificarla?
La Psicologa non fa affermazioni. Non confondere la Psicoanalisi con la Psicologia. La Psicologia ha sviluppato modelli e teorie sottoposte a falsificazione sulla base delle quali sono state costruite discipline e metodi di cura, strumenti euristici, eccetera.
Perciò il mio invito è cercare di non dimenticare mai il primo dei due termini del concetto, l'intelligenza.
Fortuna che l'oggetto di questo thread continua a ricordarcelo! ;-)
Sì ma tu continui a usare solo il tuo metodo e parli solo di te.
Se infatti ci mettiamo d'accordo sul suo significato potremo meglio accapigliarci sulle distinzioni fra intelligenza umana, animale, e artificiale.
Cos'è l'Intelligenza?
Il dibattito che a te appare "fra sordi", evidenzia un dissenso profondo sul significato (e sul valore) di questo termine.
Il dissenso dipende dal fatto che in una mailing list uno come te che non ha una preparazione specifica (hai detto che sei un hacker e in programmatore senza background accademico), continua a pretendere di imporre il suo punto di vista.
Per esempio, secondo me, l'intelligenza è una peculiarità della nostra specie. Persino parlare di intelligenza animale è fallace: è la proiezione della propria esperienza intellettiva su un entità non umana per spiegarne il comportamento.
Ancora questo secondo me. AL bar va bene, forse in mailing list va bene,
ma fino a cun certo punto. Io penso che queste affermazioni facciano solo perdere tempo a chi legge (ma smetto tra breve)
Possiamo definire l'intelligenza in modo da poterla attribuire ad un cane o un cavallo?
Sì.
Certo! Siamo gente pratica... non ci interessano le questioni "filologiche". ;-)
Ci interessano entrambi, ma tu non le conosci: "possiamo definire oggi l’AI (Artificial Intelligence) come “la teoria e lo sviluppo di sistemi informatici in grado di svolgere compiti che normalmente richiedono l'intelligenza umana, come la percezione visiva, il riconoscimento vocale, i processi decisionali e la traduzione tra le lingue”. Ugualmente nella recente dichiarazione europea “AI for Europe”, l’AI, paragonata per forza strategica all’elettricità del XIX secolo, si riferisce ai sistemi che mostrano un “comportamento intelligente”, analizzando l’ambiente e prendendo decisioni- con un certo grado di autonomia."
Ma perché farlo, se inventare un nuovo termine costa uguale e riduce il rischio di fraintendimenti?
La comunità scientifica è d'accordo a usare il temine IA nelle ue declinazioni. Non è che per fare un piacere a te uno smette.
La stessa cosa vale, molto di più, per il software.
Chiosa incomprensibile.
Giacomo
-- Arturo Di Corinto www.dicorinto.it ---------------------------------> AVVERTENZE AI SENSI DEL D.Lgs. 196/2003 Le informazioni contenute in questo messaggio di posta elettronica e/o nel/i file/s allegato/i sono da considerarsi strettamente riservate. Il loro utilizzo è consentito esclusivamente al destinatario del messaggio, per le finalità indicate nel messaggio stesso. Qualora riceviate questo messaggio senza esserne il destinatario, Vi preghiamo cortesemente di darcene notizia via e-mail e di procedere alla distruzione del messaggio stesso, cancellandolo dal Vostro sistema. Conservare il messaggio stesso, divulgarlo anche in parte, distribuirlo ad altri soggetti, copiarlo, od utilizzarlo per finalità diverse, costituisce comportamento contrario ai principi dettati dal D.Lgs. 196/2003
Caro Arturo pur essendo dalla tua parte (ed in disaccordo con Giacomo) per quanto riguarda la Psicologia ritengo però che in alcuni punti della tua risposta assumi un atteggiamento che non faccia bene al dibattito. In particolare trovo fuori luogo l'argomento "ad hominem" che Giacomo voglia imporre il suo punto di vista. Il suo insistere sulle differenze tra intelligenza umana/animale/artificiale a me appare coerente col dibattito aperto negli anni più recenti da molti studiosi, che hanno osservato che per parlare appropriatamente di intelligenza (nel senso che noi genere umano diamo a questo termine) non si può prescindere dagli organi di senso e dal "substrato" in cui questa intelligenza è inserita: il più famoso di questi forse è Thomas Nagel. Argomentare che siccome Giacomo è un hacker non può sostenere una posizione che non è proprio ortodossa mi sembra (oltre che insultante per il mondo degli hacker) poco scientifico, visto che con l'ortodossia saremmo rimasti all' "ipse dixit" Tra l'altro, anche la Treccani sostiene che non bisogna "...dimenticare la specificità della mente umana rispetto a quella degli altri animali. Quando si parla di intelligenza, normalmente si intende quella umana. Questo è sbagliato perché ogni animale ha la sua forma di intelligenza". http://www.treccani.it/enciclopedia/intelligenza_%28Dizionario-di-Medicina%2... Che facciamo, diciamo che anche i redattori della Treccani "non hanno una preparazione scientifica"? :-) Ciao, Enrico Il 02/04/2019 14:46, Arturo Di Corinto ha scritto:
Caro Giacomo-
Il giorno mar 2 apr 2019 alle ore 01:10 Giacomo Tesio <giacomo@tesio.it <mailto:giacomo@tesio.it>> ha scritto:
On 01/04/2019, Arturo Di Corinto <arturo.dicorinto@uniroma1.it <mailto:arturo.dicorinto@uniroma1.it>> wrote: > Caro Antonio-- > grazie per il suggerimento. Può aiutare un dibattito che anche qui su Nexa > a volte mi pare avvenire tra sordi.
Fortuna che è un dibattito epistolare, allora! :-D
> Dal mio modesto punto di vista quello che mi pare spesso mancare in questi > dibattiti è una riflessione di carattere scientifico, ed epistemologico, di > cosa siano l'intelligenza umana e i suoi correlati neurofisiologici e > comportamentali. Concetti definiti diversamente nelle diverse discipline, > ma sui cui converrete, la Psicologia si interroga dalla nascita, e rispetto > a cui ha identificato da tempo dei punti fermi, costantemente messi alla > prova della falsificabilità.
Parlando di epistemologia: possiamo definire la Psicologia come Scienza senza ridefinire il concetto di Scienza?
Una tesi del genere non si sentiva dall'800. La Psicologia È una scienza che utilizza il metodo scientifico. La tua affermazione è capziosa.
Possiamo progettare, per ogni affermazione psicologica, un esperimento riproducibile capace di falsificarla?
La Psicologa non fa affermazioni. Non confondere la Psicoanalisi con la Psicologia. La Psicologia ha sviluppato modelli e teorie sottoposte a falsificazione sulla base delle quali sono state costruite discipline e metodi di cura, strumenti euristici, eccetera.
> Perciò il mio invito è cercare di non dimenticare mai il primo dei due > termini del concetto, l'intelligenza.
Fortuna che l'oggetto di questo thread continua a ricordarcelo! ;-)
Sì ma tu continui a usare solo il tuo metodo e parli solo di te.
> Se infatti ci mettiamo d'accordo sul suo significato potremo meglio > accapigliarci sulle distinzioni fra intelligenza umana, animale, e > artificiale.
Cos'è l'Intelligenza?
Il dibattito che a te appare "fra sordi", evidenzia un dissenso profondo sul significato (e sul valore) di questo termine.
Il dissenso dipende dal fatto che in una mailing list uno come te che non ha una preparazione specifica (hai detto che sei un hacker e in programmatore senza background accademico), continua a pretendere di imporre il suo punto di vista.
Per esempio, secondo me, l'intelligenza è una peculiarità della nostra specie. Persino parlare di intelligenza animale è fallace: è la proiezione della propria esperienza intellettiva su un entità non umana per spiegarne il comportamento.
Ancora questo secondo me. AL bar va bene, forse in mailing list va bene, ma fino a cun certo punto. Io penso che queste affermazioni facciano solo perdere tempo a chi legge (ma smetto tra breve)
Possiamo definire l'intelligenza in modo da poterla attribuire ad un cane o un cavallo?
Sì.
Certo! Siamo gente pratica... non ci interessano le questioni "filologiche". ;-)
Ci interessano entrambi, ma tu non le conosci: "possiamo definire oggi l’AI (Artificial Intelligence) come “la teoria e lo sviluppo di sistemi informatici in grado di svolgere compiti che normalmente richiedono l'intelligenza umana, come la percezione visiva, il riconoscimento vocale, i processi decisionali e la traduzione tra le lingue”. Ugualmente nella recente dichiarazione europea “AI for Europe”, l’AI, paragonata per forza strategica all’elettricità del XIX secolo, si riferisce ai sistemi che mostrano un “comportamento intelligente”, analizzando l’ambiente e prendendo decisioni- con un certo grado di autonomia."
Ma perché farlo, se inventare un nuovo termine costa uguale e riduce il rischio di fraintendimenti?
La comunità scientifica è d'accordo a usare il temine IA nelle ue declinazioni. Non è che per fare un piacere a te uno smette.
La stessa cosa vale, molto di più, per il software.
Chiosa incomprensibile.
Giacomo
--
Arturo Di Corinto www.dicorinto.it <http://www.dicorinto.it> --------------------------------->
AVVERTENZE AI SENSI DEL D.Lgs. 196/2003 Le informazioni contenute in questo messaggio di posta elettronica e/o nel/i file/s allegato/i sono da considerarsi strettamente riservate. Il loro utilizzo è consentito esclusivamente al destinatario del messaggio, per le finalità indicate nel messaggio stesso. Qualora riceviate questo messaggio senza esserne il destinatario, Vi preghiamo cortesemente di darcene notizia via e-mail e di procedere alla distruzione del messaggio stesso, cancellandolo dal Vostro sistema. Conservare il messaggio stesso, divulgarlo anche in parte, distribuirlo ad altri soggetti, copiarlo, od utilizzarlo per finalità diverse, costituisce comportamento contrario ai principi dettati dal D.Lgs. 196/2003
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- EN ===================================================================== Prof. Enrico Nardelli Dipartimento di Matematica - Universita' di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it home page: http://www.mat.uniroma2.it/~nardelli blog: http://www.ilfattoquotidiano.it/blog/enardelli/ http://link-and-think.blogspot.it/ ===================================================================== --
On 02/04/2019, Enrico Nardelli <nardelli@mat.uniroma2.it> wrote:
Caro Arturo
pur essendo dalla tua parte (ed in disaccordo con Giacomo) per quanto riguarda la Psicologia [...]
Ehm... ma qualcuno sa cosa ne pensa Giacomo? :-D
Il giorno mar 2 apr 2019 alle ore 01:10 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Parlando di epistemologia: possiamo definire la Psicologia come Scienza senza ridefinire il concetto di Scienza?
Possiamo progettare, per ogni affermazione psicologica, un esperimento riproducibile capace di falsificarla?
Una tesi del genere non si sentiva dall'800. La Psicologia È una scienza che utilizza il metodo scientifico. La tua affermazione è capziosa.
Sapete qual'è l'unico vero super potere degli hacker? Fare domande! :-D Queste non sono tesi, sono domande. Fatte ad una mailing list multidisciplinare da un programmatore "senza background accademico", ma estremamente curioso proprio perché pienamente consapevole dei propri limiti culturali. Non voglio dire che interpretarle come tesi sia stata una lettura "capziosa" delle mie parole, ma credo che ad Arturo sia sfuggito un vasto dibattito sulla classificazione della Psicologia come Scienza avvenuto... beh... diciamo un po' dopo l'800 ;-) https://www.psychologytoday.com/us/blog/theory-knowledge/201601/the-is-psych...
In particolare trovo fuori luogo l'argomento "ad hominem" che Giacomo voglia imporre il suo punto di vista.
Il suo insistere sulle differenze tra intelligenza umana/animale/artificiale a me appare coerente col dibattito aperto negli anni più recenti da molti studiosi, che hanno osservato che per parlare appropriatamente di intelligenza (nel senso che noi genere umano diamo a questo termine) non si può prescindere dagli organi di senso e dal "substrato" in cui questa intelligenza è inserita: il più famoso di questi forse è Thomas Nagel.
Argomentare che siccome Giacomo è un hacker non può sostenere una posizione che non è proprio ortodossa mi sembra (oltre che insultante per il mondo degli hacker) poco scientifico, visto che con l'ortodossia saremmo rimasti all' "ipse dixit"
Ti ringrazio Enrico, ma francamente mi fa piacere che Arturo abbia espresso chiaramente e con franchezza la sua opinione sul mio contributo a questa mailing list. Mi offre l'occasione per scusarmi sinceramente con tutti coloro che condividono tale opinione e a cui ho fatto "perdere tempo" costringendoli con la forza delle mie argomentazioni alla lettura dei miei contributi. Davvero, non aspettatevi molto... sono solo un programmatore. ;-) Giacomo
On 01/04/2019, Antonio Vetro' <antonio.vetro@polito.it> wrote:
In un recente articoletto (un “conceptual paper”, https://nexa.polito.it/node/1531 <https://nexa.polito.it/node/1531> e qui <https://www.emeraldinsight.com/doi/abs/10.1108/DPRG-08-2018-0049> ) ,
Ciao Antonio, è un testo molto interessante. Propone diverse considerazioni che sottoscrivo pienamente, come - when people is the target of AI decisions, the respect of universal human rights should be the ultimate reference - along with the technical developments in AI, research communities should spend relevant effort to include a wide range of stakeholders to firstly debate on the understanding of what kind of society we want to build Prima di distribuire una qualsiasi applicazione della AI, dovremmo valutare attentamente se il suo impiego ed il suo funzionamento è in linea con in nostri obbiettivi sociali e politici.
abbiamo preso come riferimento la definizione di Russell & Norvig, 2010 (AI: A modern approach).
Shane Legg e Marcus Hutter nel 2007 hanno raccolto una interessante collezione di definizioni di intelligenza: https://arxiv.org/pdf/0706.3639.pdf L'introduzione mette in guardia il lettore citando, con una sana dose di autoironia, Sternberg: “Viewed narrowly, there seem to be almost as many definitions of intelligence as there were experts asked to define it.”
Sebbene abbiamo criticato nell'articolo l’equivalenza di razionalità con intelligenza, credo che quella sia una definizione che calza bene molti sistemi attuali di AI
"We refer to AI following the mainstream definition of Russell and Norvig (Russell and Norvig, 2010): it is “the study of designing and building intelligent agents (p.30), where “agent” is “anything that can be viewed as perceiving its environment through sensors and acting upon that environment through actuators” (p.34). An intelligent agent “takes the best possible action in a situation” (p.30), i.e. it is a rational agent the one which, for each possible percept sequence, is supposed to “select an action that is expected to maximise its performance measure, given the evidence provided by the percept sequence and whatever built-in knowledge the agent has” (p.37)."
Al di là della razionalità (su cui torno tra poco) questa definizione è molto più "narrow" della definizione di Machine Intelligence di pochi anni antecedente (vedi http://www.vetta.org/documents/legg-hutter-2007-universal-intelligence.pdf ) in cui gli autori tentano di modellare intelligenza ed apprendimento attraverso l'interazione dinamica fra un agente intelligente e l'ambiente in cui opera. Come mostrate nel vostro articolo, definire l'intelligenza (artificiale o meno) come razionalità e la razionalità in termini di massimizzazione delle performance misurate è pericoloso per la società tutta. Ma non è solo pericoloso, è facilmente falsificabile. (ATTENZIONE: quanto segue si legge meglio con un font a larghezza fissa, altrimenti gli schemi potrebbero risultare deformati) In qualche ora e con un po' di pazienza chiunque può creare una intelligenza artificiale rispondente esattamente a tale definizione. Non dico in Python... non dico su Excel... sul Blocco Note! (Per chi non lo sapesse Blocco Note è un semplice editor di testo disponibile dal 1985 in tutte le versioni di Windows: https://it.wikipedia.org/wiki/Blocco_note ) Ecco come creare una intelligenza artificiale capace di giocare perfettamente a Tris, capace di massimizzare le proprie vittorie. Rappresentiamo la scacchiera di Tris come una sequenza di 9 caratteri in cui la X sta per la X sulla scacchiera, la O sta per la O sulla scacchiera e lo spazio sta per una casella vuota. Ad esempio la scacchiera vuota sarà rappresentata da 9 spazi, mentre la stringa "X0 0X0 X" corrisponderà alla seguente scacchiera | X | 0 | | ------------- | 0 | X | 0 | ------------- | | | X | Creiamo due file: uno per quando la nostra AI controlla la X e l'altro per quando controlla la O. In ciascun file mettiamo una per riga le possibili combinazioni della scacchiera seguite da un maggiore (a rappresentare una freccia) e dalla mossa ottimale mostrata da https://xkcd.com/832/ (le trovate più chiare su Wikipedia https://upload.wikimedia.org/wikipedia/commons/d/de/Tictactoe-X.svg e https://upload.wikimedia.org/wikipedia/commons/2/2f/Tictactoe-O.svg ) Per esempio le prime linee di X.txt saranno: " ">"X " "XO ">"XO X " "XOO X ">"XOO X X" ...e così via. O.txt sarà molto più lungo, ma del tutto simile: "X ">"X O " "XX O ">"XXO O " ""XXOXO ">"XXO O O " ..e così via. A questo punto possiamo sfidare Notepad aprendo il file e cercando la stringa corrispondente allo stato della scacchiera con Ctrl+T (o Ctrl+F se avete la localizzazione inglese). Se ad esempio la scacchiera è nello stato | X | 0 | | ------------- | | | | ------------- | | | | e il Blocco Note controlla la X, basta cercare "X0 " sul file X.txt e verrà trovata la riga "XO ">"XO X " che significa che Blocco Note vuole mettere la X nella posizione centrale: | X | 0 | | ------------- | | X | | ------------- | | | | Dopo qualche partita (se non sbagliate nulla nella creazione di X.txt e di O.txt e nella trascrizione degli stati della scacchiera, ovvero se non introducete bug) scoprirete che Blocco Note è imbattibile! Ora chiedetevi: Blocco Note è diventato intelligente? Secondo la definizione di Russell and Norvig... è così. ;-) Giacomo
Grazie a te, Antonio-- Il giorno mar 2 apr 2019 alle ore 07:28 antonio.vetro@polito.it < antonio.vetro@polito.it> ha scritto:
Grazie Arturo, grazie Giacomo
Anche Russel e Norvig modellano l' apprendimento attraverso l'interazione dinamica fra un agente intelligente (~razionale per loro) e l'ambiente in cui opera.
Sì, conosco.
Forse ho fatto un passo di lato citando il nostro lavoro concettuale , da qui l'impressione di un dialogo tra sordi. L'intento era di dare un altro riferimento definitorio e mostrare attraverso quel nostro lavoro quanto l'accostamento moderno tra i termini intelligenza e artificiale sia non solo labile e forse sbagliato, ma soprattutto devii dal grande punto della responsabilità sociale nello sviluppo di sistemi software "intelligenti" (e più nello specifico, di quelli che prendono o supportano decisioni sulle attività umane).
Non mi riferivo a te ma parlavo in generale. Quello che mi piace sottolineare è che viviamo in un'epoca di forte accelerazione teorica e pratica con risvolti etici, politici, economici e che le definizioni come le acquisizioni teoriche non sono scolpite nella pietra. Perciò complimenti e auguri per il tuo lavoro. Se hai tempo e voglia ti invito a leggere il testo della missione del Laboratorio di Intelligenza Artificiale del Cini per condividere con te il tipo di approccio euristico assunto. "L’*Intelligenza artificiale*, nella sua accezione moderna, multi-disciplinare, viene ormai considerata la tecnologia più strategica e dirompente del nostro XXI secolo. Parafrasando le recenti dichiarazioni europee, possiamo definire oggi l’AI (Artificial Intelligence) come “la teoria e lo sviluppo di sistemi informatici in grado di svolgere compiti che normalmente richiedono l'intelligenza umana, come la percezione visiva, il riconoscimento vocale, i processi decisionali e la traduzione tra le lingue”. Ugualmente nella recente dichiarazione europea “AI for Europe”, l’AI, paragonata per forza strategica all’elettricità del XIX secolo, si riferisce ai sistemi che mostrano un “comportamento intelligente”, analizzando l’ambiente e prendendo decisioni- con un certo grado di autonomia. La AI del XXI secolo è quindi una combinazione di tecnologie informatiche, che, grazie alla progressiva disponibilità di enormi quantità di dati scaturiti dalla trasformazione digitale costituiscono i componenti elementari per la creazione di sistemi *intelligenti*, capaci di percepire il mondo esterno, apprendere, ragionare e agire come un sistema biologico, o possibilmente meglio. I recenti progressi nel Machine Learning e Deep Learning e le disponibilità di enorme potenza di calcolo anche a basso costo hanno portato il diffondersi dell’AI ovunque, dalla radicale trasformazione dei processi industriali alle complesse analisi economiche e sociali. È quindi fondamentale approfondire e coordinare il lavoro di tutta le aree AI, per sviluppare i componenti elementari delle nuove generazioni di sistemi e servizi intelligenti. e comprendere in un unico paradigma molte tecnologie; dai sistemi percettivi (il linguaggio, la visione, i sensori, le interfacce aptiche), ai sistemi di apprendimento e ragionamento automatico (come il machine learning statistico e neurale, modelli di rappresentazione della conoscenza, ottimizzazione e pianificazione), ai sistemi intelligenti in grado di agire sull’ambiente (robotica, veicoli autonomi, agenti in realt’ virtuale ed aumentata) ai nuovi sistemi e servizi informatici quali i sistemi di *retrieval*, di *Q&A*, di *recommandation* e di *profilazione* di utenti, fino ai sistemi orientati alla *cybersicurezza*, e alla analisi dei social. Le eccezionali nuove opportunità create dall’AI si presentano insieme a nuove vulnerabilità e rischi: la società e gli individui possono essere esposti a discriminazioni automatiche, violazione della privacy, perdita di autonomia e mancanza di trasparenza; rischi che possono minare la fiducia degli stakeholder e l’accettazione sociale delle nuove opportunità. L’AI può essere un potente strumento per aumentare le capacità umane (augmented intelligence) o per creare sistemi e robot autonomi, e collaborativi, ed è quindi importante capirne le potenzialità ma anche la accettabilità nella interazione uomo e macchina intelligente. D’altro canto, la robotica sta trasformando positivamente il nostro modo di vivere e di lavorare, aumentandone l’efficienza e i livelli di sicurezza, fornendo livelli avanzati di servizio. È destinata a diventare la tecnologia trainante alla base di un’intera nuova generazione di dispositivi (semi-)autonomi che, attraverso le loro capacità di apprendimento, interagiscono attivamente con il mondo che li circonda e, quindi, forniscono il collegamento mancante tra il mondo digitale e quello fisico. L’Italia ha una grande tradizione nell’AI, a livello metodologico, tecnologico ed applicativo, ed in questo rinato entusiasmo scientifico, economico, produttivo e sociale è nata l’esigenza anche in Italia di unire le forze delle università e dei Centri di Ricerca per la creazione di un nuovo Laboratorio Nazionale CINI AIIS ”Artificial Intelligence and Intelligent Systems”. Il laboratorio vuole creare le basi per un efficace ecosistema italiano dell’intelligenza artificiale, inclusivo di tutte le competenze e votato a evidenziare le eccellenze nazionali per rafforzare il ruolo scientifico e tecnologico dell’Italia in Europa e nel Mondo."
Ne consegue anche che, dal mio modestissimo punto di vista, sono abbastanza in linea con quanto scrive Arturo rispetto alla necessità di comprensione dell' intelligenza umana, anzi delle intelligenze umane .
Un caro saluto
Antonio
Grazie. IL testo sopra era per dirti che dal punto di vista di uno psicologo cognitivo non c'è contraddizione tra i reperti scientifici della Psicologia tutta (Evolutiva, sociale, cognitiva, dell'apprendimento, eccetera) e della Neuropsciologia e l'approccio AIIS. Poi certo ci sono coloro che hanno teorizzato fino a 9 tipi i intelligenze diverse, qualcuno è più famoso e qualcuno meno famoso, ma in fondo la ricerca scientifica è anche questo... Un caro saluto. A.
== Sent from my wireless device ==
-------- Messaggio originale -------- Oggetto: Re: [nexa] "L'intelligenza artificiale? Non è vera intelligenza" Da: Giacomo Tesio A: Antonio Vetro' CC: mailing list nexa ,Stefano Quintarelli ,Marco Ciurcina
On 01/04/2019, Antonio Vetro' wrote:
In un recente articoletto (un “conceptual paper”, https://nexa.polito.it/node/1531 e qui ) ,
Ciao Antonio, è un testo molto interessante. Propone diverse considerazioni che sottoscrivo pienamente, come
- when people is the target of AI decisions, the respect of universal human rights should be the ultimate reference - along with the technical developments in AI, research communities should spend relevant effort to include a wide range of stakeholders to firstly debate on the understanding of what kind of society we want to build
Prima di distribuire una qualsiasi applicazione della AI, dovremmo valutare attentamente se il suo impiego ed il suo funzionamento è in linea con in nostri obbiettivi sociali e politici.
abbiamo preso come riferimento la definizione di Russell & Norvig, 2010 (AI: A modern approach).
Shane Legg e Marcus Hutter nel 2007 hanno raccolto una interessante collezione di definizioni di intelligenza: https://arxiv.org/pdf/0706.3639.pdf
L'introduzione mette in guardia il lettore citando, con una sana dose di autoironia, Sternberg: “Viewed narrowly, there seem to be almost as many definitions of intelligence as there were experts asked to define it.”
Sebbene abbiamo criticato nell'articolo l’equivalenza di razionalità con intelligenza, credo che quella sia una definizione che calza bene molti sistemi attuali di AI
"We refer to AI following the mainstream definition of Russell and Norvig (Russell and Norvig, 2010): it is “the study of designing and building intelligent agents (p.30), where “agent” is “anything that can be viewed as perceiving its environment through sensors and acting upon that environment through actuators” (p.34). An intelligent agent “takes the best possible action in a situation” (p.30), i.e. it is a rational agent the one which, for each possible percept sequence, is supposed to “select an action that is expected to maximise its performance measure, given the evidence provided by the percept sequence and whatever built-in knowledge the agent has” (p.37)."
Al di là della razionalità (su cui torno tra poco) questa definizione è molto più "narrow" della definizione di Machine Intelligence di pochi anni antecedente (vedi http://www.vetta.org/documents/legg-hutter-2007-universal-intelligence.pdf ) in cui gli autori tentano di modellare intelligenza ed apprendimento attraverso l'interazione dinamica fra un agente intelligente e l'ambiente in cui opera.
Come mostrate nel vostro articolo, definire l'intelligenza (artificiale o meno) come razionalità e la razionalità in termini di massimizzazione delle performance misurate è pericoloso per la società tutta.
Ma non è solo pericoloso, è facilmente falsificabile. (ATTENZIONE: quanto segue si legge meglio con un font a larghezza fissa, altrimenti gli schemi potrebbero risultare deformati)
In qualche ora e con un po' di pazienza chiunque può creare una intelligenza artificiale rispondente esattamente a tale definizione. Non dico in Python... non dico su Excel... sul Blocco Note! (Per chi non lo sapesse Blocco Note è un semplice editor di testo disponibile dal 1985 in tutte le versioni di Windows: https://it.wikipedia.org/wiki/Blocco_note )
Ecco come creare una intelligenza artificiale capace di giocare perfettamente a Tris, capace di massimizzare le proprie vittorie.
Rappresentiamo la scacchiera di Tris come una sequenza di 9 caratteri in cui la X sta per la X sulla scacchiera, la O sta per la O sulla scacchiera e lo spazio sta per una casella vuota. Ad esempio la scacchiera vuota sarà rappresentata da 9 spazi, mentre la stringa "X0 0X0 X" corrisponderà alla seguente scacchiera
| X | 0 | | ------------- | 0 | X | 0 | ------------- | | | X |
Creiamo due file: uno per quando la nostra AI controlla la X e l'altro per quando controlla la O.
In ciascun file mettiamo una per riga le possibili combinazioni della scacchiera seguite da un maggiore (a rappresentare una freccia) e dalla mossa ottimale mostrata da https://xkcd.com/832/ (le trovate più chiare su Wikipedia https://upload.wikimedia.org/wikipedia/commons/d/de/Tictactoe-X.svg e https://upload.wikimedia.org/wikipedia/commons/2/2f/Tictactoe-O.svg )
Per esempio le prime linee di X.txt saranno: " ">"X " "XO ">"XO X " "XOO X ">"XOO X X"
...e così via.
O.txt sarà molto più lungo, ma del tutto simile: "X ">"X O " "XX O ">"XXO O " ""XXOXO ">"XXO O O "
..e così via.
A questo punto possiamo sfidare Notepad aprendo il file e cercando la stringa corrispondente allo stato della scacchiera con Ctrl+T (o Ctrl+F se avete la localizzazione inglese).
Se ad esempio la scacchiera è nello stato
| X | 0 | | ------------- | | | | ------------- | | | |
e il Blocco Note controlla la X, basta cercare "X0 " sul file X.txt e verrà trovata la riga
"XO ">"XO X "
che significa che Blocco Note vuole mettere la X nella posizione centrale:
| X | 0 | | ------------- | | X | | ------------- | | | |
Dopo qualche partita (se non sbagliate nulla nella creazione di X.txt e di O.txt e nella trascrizione degli stati della scacchiera, ovvero se non introducete bug) scoprirete che Blocco Note è imbattibile!
Ora chiedetevi: Blocco Note è diventato intelligente?
Secondo la definizione di Russell and Norvig... è così. ;-)
Giacomo
-- Arturo Di Corinto www.dicorinto.it ---------------------------------> AVVERTENZE AI SENSI DEL D.Lgs. 196/2003 Le informazioni contenute in questo messaggio di posta elettronica e/o nel/i file/s allegato/i sono da considerarsi strettamente riservate. Il loro utilizzo è consentito esclusivamente al destinatario del messaggio, per le finalità indicate nel messaggio stesso. Qualora riceviate questo messaggio senza esserne il destinatario, Vi preghiamo cortesemente di darcene notizia via e-mail e di procedere alla distruzione del messaggio stesso, cancellandolo dal Vostro sistema. Conservare il messaggio stesso, divulgarlo anche in parte, distribuirlo ad altri soggetti, copiarlo, od utilizzarlo per finalità diverse, costituisce comportamento contrario ai principi dettati dal D.Lgs. 196/2003
In data lunedì 1 aprile 2019 09:10:48 CEST, Antonio Vetro' ha scritto:
"We refer to AI following the mainstream definition of Russell and Norvig (Russell and Norvig, 2010): it is “the study of designing and building intelligent agents (p.30), where “agent” is “anything that can be viewed as perceiving its environment through sensors and acting upon that environment through actuators” Su un tavolino, in un balconcino, fuori da una finestra della mia casa, c'è una ranetta in ceramica che ha un piccolo pannello solare, un sensore e una lampadina. Tutte le sere, con precisione stupefacente (sono anni che non ne salta una), al crepuscolo, la ranetta accende la sua lampadina. Antonio, sono quindi autorizzato a dire che la mia ranetta è un agente dotato di intelligenza artificiale? Il cuore mi dice di si (mi sta molto simpatica): ma non vorrei che il mio giudizio fosse influenzato dall'affetto che ho per la ranetta. :-) m.c.
Grazie Antonio del contributo interessante, la definizione Russell and Norvig è certamente accurata ma forse troppo generosa: un termostato o uno scaldabagno ci cadono in pieno. Pensando a un comportamento "intelligente" (nel senso comune) richiediamo all'agente artificiale anche una certa capacità di previsione fondata su una razionalità che include un modello più o meno dinamico del mondo e una capacità di scelta sul modo di raggiungere uno stato del mondo desiderato selezionando un comportamento commisurato alla capacità di agire e percepire dell'agente. Questa è una proprietà che non chiediamo a uno scaldabagno ordinario. Gli elementi di selezione e modellazione sono presenti nella teorizzazione "evolutiva" di J.Albus [1] (sorprendentemente assente dalla bibliografia di R&N) e e introdotti sin da Ashby nel '57[2]. Un altro elemento assente è che un comportamento (naturale o artificiale) è intelligente *per qualcuno*, ovvero è giudicato intelligente da un soggetto che detiene un modello del mondo e una "libreria" di comportamenti adeguati. I comportamenti sono cioè sempre adeguati /per qualcuno/: l'attore stesso da solo (se è sufficientemente autonomo), chi lo ho costruito o programmato (se è artificiale), e chi lo controlla (anche se è naturale ma non del tutto autonomo - ad esempio un soldato). Un giudizio finale di adeguatezza (ex-post) del comportamento tenuto è spesso opera della composizione di questi giudizi parziali. Nella definizione dell'intelligenza va dunque incluso l'attore o gli attori che operano il giudizio di adeguatezza del comportamento più o meno intelligente. E in questa direzione condivido pienamente il vostro invito che l'agente sia un “socially responsible agent”, cioè che i comportamenti dell'agente possano essere o giudicati adeguati dalla collettività sul cui ambiente l'agente opera o dal soggetto su cui opera direttamente: l'agente (ma anche chi lo costruisce e chi lo controlla) deve "rispondere" dell'azione. Questo aspetto di giudizio introduce una soggettività invisa alle scienze "esatte" che però è già nascosto nella "misura" di Russell e Norvig. Il termine /misura/ ha un connotato di oggettività che nei fatti non c'è: la funzione di misura da massimizzare è opera della scelta di chi costruisce l'agente: giudizio oculato se va bene o pregiudizio (bias) anche inconsapevole se va male. Questo apre però un problema nel caso degli agenti artificiali: a chi questa intelligenza/capacità di previsione/razionalità deve la sua *lealtà*? Ovvero da chi deve essere giudicato intelligente? (1) da chi li costruisce, (2) da chi li controlla, o (3) dal contesto sociale umano in cui sono inseriti (con tutte le difficoltà che questo giudizio comporta). Questa scelta va definita in fretta, prima che l'agente sia autonomo, in grado di produrre altri agenti e costituisca una collettività. Come Albus stesso mette in luce, "For groups of individuals, intelligence provides a mechanism for cooperatively generating biologically advantageous behavior" Un caro saluto, Alberto [1] Per Albus addirittura l'intelligenza è un "mechanism for generating biologically advantageous behavior" Albus, James S. “Outline for a Theory of Intelligence.” /Systems, Man and Cybernetics, IEEE Transactions On/ 21, no. 3 (1991): 473–509.) [2] Ashby, nelle ultime righe di Cybernetics (1957) scrive: It is also clear that many of the tests used for measuring “intel- ligence” are scored essentially according to the candidate’s power of appropriate selection. Thus one test shows the child a common object and asks its name: out of all words the child must select the proper one. Another test asks the child how it would find a ball in a field: out of all the possible paths the child must select one of the suitable few. Thus it is not impossible that what is commonly referred to as “intellectual power” may be equivalent to “power of appropriate selection”. Indeed, if a talking Black Box were to show high power of appropriate selection in such matters—so that, when given difficult problems it persistently gave correct answers—we could hardly deny that it was showing the behavio- ral equivalent of “high intelligence”. On 01/04/2019 09:10, Antonio Vetro' wrote:
In un recente articoletto (un “conceptual paper”, https://nexa.polito.it/node/1531 e qui <https://www.emeraldinsight.com/doi/abs/10.1108/DPRG-08-2018-0049> ) , abbiamo preso come riferimento la definizione di Russell & Norvig, 2010 (AI: A modern approach). Sebbene abbiamo criticato nell'articolo l’equivalenza di razionalità con intelligenza, Credo che quella sia una definizione che calza bene molti sistemi attuali di AI
"We refer to AI following the mainstream definition of Russell and Norvig (Russell and Norvig, 2010): it is “the study of designing and building intelligent agents (p.30), where “agent” is “anything that can be viewed as perceiving its environment through sensors and acting upon that environment through actuators” (p.34). An intelligent agent “takes the best possible action in a situation” (p.30), i.e. it is a rational agent the one which, for each possible percept sequence, is supposed to “select an action that is expected to maximise its performance measure, given the evidence provided by the percept sequence and whatever built-in knowledge the agent has” (p.37). "
Un caro saluto, antonio
Il giorno 30 mar 2019, alle ore 20:39, Giacomo <giacomo@tesio.it <mailto:giacomo@tesio.it>> ha scritto:
On March 30, 2019 5:53:43 PM UTC, Stefano Quintarelli <Stefano@Quintarelli.it <mailto:Stefano@Quintarelli.it>> wrote:
Insisto a ritenere che nel 1955 il termine non fosse stato usato per ragioni di marketing.
Beh, in effetti dopo due guerre mondiali appena concluse, l'intelligenza umana non doveva sembrare così irraggiungibile. ;-)
A meno di cambiare la definizione di "marketing"
Non credo sia necessario.
Sai quante articoli su PubMed mia moglie scarta come non affidabili solo sulla base dei conflitti di interesse degli autori?
Cosa fanno le aziende farmaceutiche che li finanziano? Beneficenza?
Non so se il rapporto fra ricerca e denaro sia mai stato semplice, ma se non lo è adesso.... figurati durante la guerra fredda!
Naturalmente oggi si potrebbe stabilire meccanismi per finanziare la ricerca più efficaci, per disaccoppiare la ricerca dalla provenienza dei fondi privati che la rendono possibile.
Ma abbiamo consapevolezza del problema? Abbiamo la volontà di risolverlo?
Giacomo PS: scusate l'off-topic, ma proprio oggi mia moglie mi faceva notare come l'etica nelle professioni intellettuali non è un problema risolto ben al di là dell'informatica. La medicina ha migliaia di anni eppure... spesso si fa finta do non vedere per non cedere allo sconforto.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
On 02/04/2019, Alberto Cammozzo <ac+nexa@zeromx.net> wrote:
Grazie Antonio del contributo interessante,
la definizione Russell and Norvig è certamente accurata ma forse troppo generosa: un termostato o uno scaldabagno ci cadono in pieno.
E anche Notepad! ;-)
Pensando a un comportamento "intelligente" (nel senso comune) richiediamo all'agente artificiale anche una certa capacità di previsione fondata su una razionalità che include un modello più o meno dinamico del mondo e una capacità di scelta sul modo di raggiungere uno stato del mondo desiderato selezionando un comportamento commisurato alla capacità di agire e percepire dell'agente.
Verissimo. Nota però come tutti i termini che usi "capacità di previsione", "modello del mondo", "capacità di scelta" e "mondo desiderato" presuppongono consapevolezza. In altri termini, per poter parlare di intelligenza siamo COSTRETTI a proiettare la nostra esperienza della stessa sulle macchine. Russell e Norvig (ed in modo diverso Legg e Hutter) cercano di evitare (nascondere? negare? :-D) questa proiezione definendo l'intelligenza solo attraverso la sua interazione con l'esterno. Per la verità Legg e Hutter parlano esplicitamente di intelligenza anche in termini di obbiettivi nella definizione informale di Intelligenza "Intelligence measures an agent’s ability to achieve goals in a wide range of environments." ma nella definizione formale, gli scopi dell'agente (interni ed ignoti) vengono convenientemente sostituiti con la ricompensa (esterna ed osservabile).
Un altro elemento assente è che un comportamento (naturale o artificiale) è intelligente *per qualcuno*, ovvero è giudicato intelligente da un soggetto che detiene un modello del mondo e una "libreria" di comportamenti adeguati.
Di nuovo, tu parli del funzionamento interno (modello, libreria di comportamenti adeguati) mentre il tentativo dell'intelligenza artificiale è negare la rilevanza di questo funzionamento interno, per non doversi confrontare con esso (e non essere costretta a spiegarlo semanticamente).
I comportamenti sono cioè sempre adeguati /per qualcuno/: l'attore stesso da solo (se è sufficientemente autonomo), chi lo ho costruito o programmato (se è artificiale), e chi lo controlla (anche se è naturale ma non del tutto autonomo - ad esempio un soldato). Un giudizio finale di adeguatezza (ex-post) del comportamento tenuto è spesso opera della composizione di questi giudizi parziali. Nella definizione dell'intelligenza va dunque incluso l'attore o gli attori che operano il giudizio di adeguatezza del comportamento più o meno intelligente.
Perfettamente d'accordo. Ma nel processo di disumanizzazione dell'intelligenza, il giudizio è delegato alla funzione obbiettivo (quando esiste).
E in questa direzione condivido pienamente il vostro invito che l'agente sia un “socially responsible agent”, cioè che i comportamenti dell'agente possano essere o giudicati adeguati dalla collettività sul cui ambiente l'agente opera o dal soggetto su cui opera direttamente: l'agente (ma anche chi lo costruisce e chi lo controlla) deve "rispondere" dell'azione.
L'agente può risponderne solo se è un essere umano. La responsabilità deve essere SEMPRE ricondotta ad un essere umano semplicemente perché è un costrutto specifico della società umana. Se il tuo scaldabagno ti procura autonomamente un ustione di terzo grado, non ne risponde lui, ma il tuo idraulico o chi lo ha costruito. Spero, anche in termini penali.
Questo aspetto di giudizio introduce una soggettività invisa alle scienze "esatte" che però è già nascosto nella "misura" di Russell e Norvig. Il termine /misura/ ha un connotato di oggettività che nei fatti non c'è: la funzione di misura da massimizzare è opera della scelta di chi costruisce l'agente: giudizio oculato se va bene o pregiudizio (bias) anche inconsapevole se va male.
Non avrei saputo dirlo meglio! La misura da massimizzare è una decisione umana. Uber ha scelto di uccidere Elaine Herzberg per massimizzare il confort dei passeggeri. Non solo! Anche l'input del sistema (le dimensioni da considerare, i sensori da installare) e l'output (gli attuatori, le UI etc) sono oggetto di decisione umana. La cosa non dovrebbe sorprenderci, parliamo di artefatti! Sono cose, totalmente sotto il nostro dominio (nostro nel senso di noi che le creiamo). E dunque noi dobbiamo risponderne.
Questo apre però un problema nel caso degli agenti artificiali: a chi questa intelligenza/capacità di previsione/razionalità deve la sua *lealtà*? Ovvero da chi deve essere giudicato intelligente? (1) da chi li costruisce, (2) da chi li controlla, o (3) dal contesto sociale umano in cui sono inseriti (con tutte le difficoltà che questo giudizio comporta).
Ma PERCHE' dobbiamo giudicarne l'intelligenza? Non sarebbe più utile giudicarne l'utilità? La sicurezza? L'efficienza? L'efficacia? L'economicità? A quale scopo dobbiamo proiettare la nostra esperienza soggettiva su una cosa?
Questa scelta va definita in fretta, prima che l'agente sia autonomo, in grado di produrre altri agenti e costituisca una collettività.
Se parliamo di autonomia assoluta, abbiamo ancora qualche centinaio di anni per ragionarci. Forse qualche migliaio, se continuiamo con questo approccio. Per ora il problema maggiore sono le persone. https://xkcd.com/1968/
Come Albus stesso mette in luce, "For groups of individuals, intelligence provides a mechanism for cooperatively generating biologically advantageous behavior"
Il cannibalismo sessuale (vedi https://en.wikipedia.org/wiki/Sexual_cannibalism ) rientra perfettamente in questa definizione. Ma non ditelo alle femministe USA! :-D
Un caro saluto,
Alberto
A presto! Giacomo
In data sabato 30 marzo 2019 18:53:43 CEST, Stefano Quintarelli ha scritto:
Specchio riflesso... Se non ti conoscessi avrei elementi per pensare che sta scrivendo un troll :-)
Insisto a ritenere che nel 1955 il termine non fosse stato usato per ragioni di marketing.
A meno di cambiare la definizione di "marketing"
IMHO usiamo il termine "marketing" in modi diversi. IMHO il termine "marketing" per descrivere la scelta di usare una nuova definizione ("intelligenza artificiale"), che è intrinsecamente ambigua (è "intelligenza artificiale" ciò che sembra "intelligenza"), in un documento che descrive gli obiettivi di un progetto di ricerca finanziato da terzi è compatibile con la definizione dello stesso termine che ne da l'American Marketing Association: "Marketing is the activity, set of institutions, and processes for creating, communicating, delivering, and exchanging offerings that have value for customers, clients, partners, and society at large." https://www.ama.org/the-definition-of-marketing/ Ciao, m.c.
Ciao, s.
In data 30 marzo 2019 5:27:16 PM Marco Ciurcina <ciurcina@studiolegale.it> ha scritto:
In data venerdì 29 marzo 2019 19:05:06 CET, Stefano Quintarelli ha scritto: On 29/03/2019 14:09, Marco Ciurcina wrote: In data domenica 24 marzo 2019 16:19:24 CET, Stefano Quintarelli ha scritto: non credo che fu fatta per ragioni di marketing...
Forse si.
allora ogni ricerca finanziata da una fondazione ricade nella stessa categoria "fatta per ragioni di marketing" ? La risposta è ovviamente no. E l'affermazione scritta sopra è un sofisma (fallacia del tipo "a dicto simpliciter ad dictum secundum quid", o "illecita generalizzazione").
Il documento "A proposal for the Dartmouth summer research project on artificial intelligence" introduce una nuova espressione ("intelligenza artificiale") e però chiarisce che: "For the present purpose the artificial intelligence problem is taken to be that of making a machine behave in ways that would be called intelligent if a human were so behaving.".
Oggi si ritiene che l'espressione "intelligenza artificiale" sia polisenso ed abbia un significato variabile nel tempo. Non tutti i documenti relativi a progetti di ricerca che introducono nuove definizioni che restano così imprecise a distanza di 64 anni.
Il documento "A proposal for the Dartmouth summer research project on artificial intelligence" dice che con 2 mesi di lavoro e 10 progetti "a significant advance can be made in one or more of these problems if a carefully selected group of scientists work on it together for a summer.". A distanza di 64 anni e migliaia di progetti di ricerca dopo si può dire che non tutti i documenti relativi a progetti di ricerca sbagliano le previsioni in maniera così evidente.
Il documento "A proposal for the Dartmouth summer research project on artificial intelligence" assume a presupposto che "every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it". Non tutti i documenti relativi a progetti di ricerca si basano su un presupposto che (a distanza di 64 anni) pare ragionevole dire che fosse sbagliato: i lavori più recenti ricorrono ai computer quantici (che al tempo non erano ancora stati concepiti) per proporre un framework concettuale che rappresenta e fornisce gli strumenti operativi di una "macchina della vita" https://link.springer.com/content/pdf/10.1007%2Fs10773-016-3177-6.pdf
m.c.
in questa interpretazione estensiva del marketing ci puo' finire dentro anche il professore che scrive in un una mailing list.. ;-) On 02/04/2019 09:22, Marco Ciurcina wrote:
In data sabato 30 marzo 2019 18:53:43 CEST, Stefano Quintarelli ha scritto:
Specchio riflesso... Se non ti conoscessi avrei elementi per pensare che sta scrivendo un troll :-)
Insisto a ritenere che nel 1955 il termine non fosse stato usato per ragioni di marketing.
A meno di cambiare la definizione di "marketing" IMHO usiamo il termine "marketing" in modi diversi. IMHO il termine "marketing" per descrivere la scelta di usare una nuova definizione ("intelligenza artificiale"), che è intrinsecamente ambigua (è "intelligenza artificiale" ciò che sembra "intelligenza"), in un documento che descrive gli obiettivi di un progetto di ricerca finanziato da terzi è compatibile con la definizione dello stesso termine che ne da l'American Marketing Association: "Marketing is the activity, set of institutions, and processes for creating, communicating, delivering, and exchanging offerings that have value for customers, clients, partners, and society at large." https://www.ama.org/the-definition-of-marketing/
Ciao, m.c.
-- reserve your meeting with me at http://cal.quintarelli.it
participants (16)
-
Alberto Cammozzo -
Antonio Vetro' -
antonio.vetro@polito.it -
armeo@mail.nexacenter.org -
Arturo Di Corinto -
Diego Giorio -
Enrico Nardelli -
GC F -
Giacomo -
Giacomo Tesio -
lilo -
Luigi Di Liberto -
Marco Ciurcina -
Stefano Quintarelli -
Stefano Zacchiroli -
Vincenzo Mario Bruno Giorgino