Re: [nexa] l'output e le fonti [era Triste Annuncio (a proposito di Chat GPT)]
Concordo che ChatGPT non “sappia”, quanto meno nel senso di saper trarre conclusioni dalle sue conoscenze: ha solo accumulato e fatto una propria sintesi di quanto ha accumulato. Ma la sintesi non è un “indice” come quello dei motori di ricerca, altrimenti sputerebbe fuori solo quello, una lista di riferimenti. Nei suoi 175miliardi di parametri sono rappresentate le connessioni, relazioni sintattiche e semantiche, tra le parole, che gli consentono di generare nuove frasi, alcune sensate, altre meno. ChatGPT, o meglio GPT-3.5, che è la sua fonte, non è nemmeno in grado di riprodurre esattamente il testo di nessuno (o quasi) dei documenti su cui è stato allenato. Non sa fare ragionamenti logici o matematici. E allora? Anch’io ci sono migliaia di cose che non so fare, perché non me le hanno insegnate. In fondo mi pare sia sterile criticare uno strumento perché non sa fare cose per cui non è stato previsto. — Beppe PS. L’intelligenza è una qualità banale: tutti ce l’hanno, è solo una questione di livelli.
On 18 Feb 2023, at 12:00, <nexa-request@server-nexa.polito.it> <nexa-request@server-nexa.polito.it> wrote:
From: Giacomo Tesio <giacomo@tesio.it <mailto:giacomo@tesio.it>> To: Andrea Bolioli <andrea.bolioli@h-farm.com <mailto:andrea.bolioli@h-farm.com>> Cc: Andrea Bolioli via nexa <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>>, "M. Fioretti" <mfioretti@nexaima.net <mailto:mfioretti@nexaima.net>> Subject: Re: [nexa] l'output e le fonti [era Triste Annuncio (a proposito di Chat GPT)] Message-ID: <2405E17E-6B1E-463D-84BF-3403D948D92C@tesio.it <mailto:2405E17E-6B1E-463D-84BF-3403D948D92C@tesio.it>> Content-Type: text/plain; charset="utf-8"
Non 'in senso stretto": chatgpt non sa nulla.
Per affermare che un LLM sappia qualcosa è necessario svuotare competamente il verbo "sapere" del proprio significato e sostituirlo con quello di "indicizzare".
ChatGPT non sa.
Giacomo
Il 17 Febbraio 2023 18:20:44 UTC, Andrea Bolioli <andrea.bolioli@h-farm.com <mailto:andrea.bolioli@h-farm.com>> ha scritto:
Ciao Giacomo,
purtroppo sono d'accordo con molte delle cose che scrivi, non tutte, ma molte. Sicuramente è bene diffondere la consapevolezza che gli LLM non sanno tutto (in senso stretto non sanno nulla), scrivono cose false senza distinguere tra vero e falso, vengono creati/utilizzati da aziende che non hanno come primo scopo il bene comune (anche se dicono di averlo), ecc
AB
Il giorno ven 17 feb 2023 alle ore 16:16 Giacomo Tesio <giacomo@tesio.it <mailto:giacomo@tesio.it>> ha scritto:
Salve Andrea,
--
Qui però il discorso è leggermente diverso: almeno per ciò che mi riguarda, la perplessità non nasce dal fatto che non sia perfetto o che non faccia ciò che non è progettato per fare, quanto il fatto che, a fronte di un'esordio tutto sommato corretto, concluda con un decesso totalmente inventato. Se ci fosse un Pagallo marmista a Sidney o giocatore di basket in USA deceduto in quella data capirei la confusione, ma che, in mancanza di una fonte, si inventi totalemente il dato, peraltro inutile ai fini della risposta mi sembra strano. Poi magari la fonte c'è e sono io che non riesco a trovarla, ma sarei curioso di capire come ""ragiona"" (virgolette doppie intenzionali) Buona settimana a tutti D. ________________________________ From: nexa <nexa-bounces@server-nexa.polito.it> on behalf of Giuseppe Attardi <attardi@di.unipi.it> Sent: Monday, February 20, 2023 9:04 AM To: nexa@server-nexa.polito.it <nexa@server-nexa.polito.it> Subject: Re: [nexa] l'output e le fonti [era Triste Annuncio (a proposito di Chat GPT)] Concordo che ChatGPT non “sappia”, quanto meno nel senso di saper trarre conclusioni dalle sue conoscenze: ha solo accumulato e fatto una propria sintesi di quanto ha accumulato. Ma la sintesi non è un “indice” come quello dei motori di ricerca, altrimenti sputerebbe fuori solo quello, una lista di riferimenti. Nei suoi 175miliardi di parametri sono rappresentate le connessioni, relazioni sintattiche e semantiche, tra le parole, che gli consentono di generare nuove frasi, alcune sensate, altre meno. ChatGPT, o meglio GPT-3.5, che è la sua fonte, non è nemmeno in grado di riprodurre esattamente il testo di nessuno (o quasi) dei documenti su cui è stato allenato. Non sa fare ragionamenti logici o matematici. E allora? Anch’io ci sono migliaia di cose che non so fare, perché non me le hanno insegnate. In fondo mi pare sia sterile criticare uno strumento perché non sa fare cose per cui non è stato previsto. — Beppe PS. L’intelligenza è una qualità banale: tutti ce l’hanno, è solo una questione di livelli. On 18 Feb 2023, at 12:00, <nexa-request@server-nexa.polito.it> <nexa-request@server-nexa.polito.it> wrote: From: Giacomo Tesio <giacomo@tesio.it<mailto:giacomo@tesio.it>> To: Andrea Bolioli <andrea.bolioli@h-farm.com<mailto:andrea.bolioli@h-farm.com>> Cc: Andrea Bolioli via nexa <nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>>, "M. Fioretti" <mfioretti@nexaima.net<mailto:mfioretti@nexaima.net>> Subject: Re: [nexa] l'output e le fonti [era Triste Annuncio (a proposito di Chat GPT)] Message-ID: <2405E17E-6B1E-463D-84BF-3403D948D92C@tesio.it<mailto:2405E17E-6B1E-463D-84BF-3403D948D92C@tesio.it>> Content-Type: text/plain; charset="utf-8" Non 'in senso stretto": chatgpt non sa nulla. Per affermare che un LLM sappia qualcosa è necessario svuotare competamente il verbo "sapere" del proprio significato e sostituirlo con quello di "indicizzare". ChatGPT non sa. Giacomo Il 17 Febbraio 2023 18:20:44 UTC, Andrea Bolioli <andrea.bolioli@h-farm.com<mailto:andrea.bolioli@h-farm.com>> ha scritto: Ciao Giacomo, purtroppo sono d'accordo con molte delle cose che scrivi, non tutte, ma molte. Sicuramente è bene diffondere la consapevolezza che gli LLM non sanno tutto (in senso stretto non sanno nulla), scrivono cose false senza distinguere tra vero e falso, vengono creati/utilizzati da aziende che non hanno come primo scopo il bene comune (anche se dicono di averlo), ecc AB Il giorno ven 17 feb 2023 alle ore 16:16 Giacomo Tesio <giacomo@tesio.it<mailto:giacomo@tesio.it>> ha scritto: Salve Andrea, --
Ciao Diego, non mi stancherò mai di ripetere, in ina IA generativa, un sistema di Deep Learning, un modello linguistico, GPT-3 in particolare, una volta addestrato IL DATO NON ESISTE PIU' c'è solo un pappagallo elettronico che sa mettere in fila parole, ma non sa nemmeno ripetere letteralmente quello con cui è stato addestrato. Non hai nessun motivo per pensare o pretendere che il dato esatto, se è stato fornito, torni fuori. Quindi vale meno di un pappagallo, che almeno i suoni li sa ripetere. On lun, 2023-02-20 at 09:19 +0000, Diego Giorio wrote:
Qui però il discorso è leggermente diverso: almeno per ciò che mi riguarda, la perplessità non nasce dal fatto che non sia perfetto o che non faccia ciò che non è progettato per fare, quanto il fatto che, a fronte di un'esordio tutto sommato corretto, concluda con un decesso totalmente inventato. Se ci fosse un Pagallo marmista a Sidney o giocatore di basket in USA deceduto in quella data capirei la confusione, ma che, in mancanza di una fonte, si inventi totalemente il dato, peraltro inutile ai fini della risposta mi sembra strano. Poi magari la fonte c'è e sono io che non riesco a trovarla, ma sarei curioso di capire come ""ragiona"" (virgolette doppie intenzionali)
Buona settimana a tutti D. From: nexa <nexa-bounces@server-nexa.polito.it> on behalf of Giuseppe Attardi <attardi@di.unipi.it> Sent: Monday, February 20, 2023 9:04 AM To: nexa@server-nexa.polito.it <nexa@server-nexa.polito.it> Subject: Re: [nexa] l'output e le fonti [era Triste Annuncio (a proposito di Chat GPT)] Concordo che ChatGPT non “sappia”, quanto meno nel senso di saper trarre conclusioni dalle sue conoscenze: ha solo accumulato e fatto una propria sintesi di quanto ha accumulato. Ma la sintesi non è un “indice” come quello dei motori di ricerca, altrimenti sputerebbe fuori solo quello, una lista di riferimenti. Nei suoi 175miliardi di parametri sono rappresentate le connessioni, relazioni sintattiche e semantiche, tra le parole, che gli consentono di generare nuove frasi, alcune sensate, altre meno. ChatGPT, o meglio GPT-3.5, che è la sua fonte, non è nemmeno in grado di riprodurre esattamente il testo di nessuno (o quasi) dei documenti su cui è stato allenato.
Non sa fare ragionamenti logici o matematici. E allora? Anch’io ci sono migliaia di cose che non so fare, perché non me le hanno insegnate.
In fondo mi pare sia sterile criticare uno strumento perché non sa fare cose per cui non è stato previsto.
— Beppe
PS. L’intelligenza è una qualità banale: tutti ce l’hanno, è solo una questione di livelli.
On 18 Feb 2023, at 12:00, <nexa-request@server-nexa.polito.it> <nexa- request@server-nexa.polito.it> wrote:
From: Giacomo Tesio <giacomo@tesio.it> To: Andrea Bolioli <andrea.bolioli@h-farm.com> Cc: Andrea Bolioli via nexa <nexa@server-nexa.polito.it>, "M. Fioretti" <mfioretti@nexaima.net> Subject: Re: [nexa] l'output e le fonti [era Triste Annuncio (a proposito di Chat GPT)] Message-ID: <2405E17E-6B1E-463D-84BF-3403D948D92C@tesio.it> Content-Type: text/plain; charset="utf-8"
Non 'in senso stretto": chatgpt non sa nulla.
Per affermare che un LLM sappia qualcosa è necessario svuotare competamente il verbo "sapere" del proprio significato e sostituirlo con quello di "indicizzare".
ChatGPT non sa.
Giacomo
Il 17 Febbraio 2023 18:20:44 UTC, Andrea Bolioli <andrea.bolioli@h-farm.com> ha scritto:
Ciao Giacomo,
purtroppo sono d'accordo con molte delle cose che scrivi, non tutte, ma molte. Sicuramente è bene diffondere la consapevolezza che gli LLM non sanno tutto (in senso stretto non sanno nulla), scrivono cose false senza distinguere tra vero e falso, vengono creati/utilizzati da aziende che non hanno come primo scopo il bene comune (anche se dicono di averlo), ecc
AB
Il giorno ven 17 feb 2023 alle ore 16:16 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Salve Andrea,
--
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
On Mon, 20 Feb 2023 12:59:06 +0100 Marco A. Calamari wrote:
Non hai nessun motivo per pensare o pretendere che il dato esatto, se è stato fornito, torni fuori.
Beh, non hai nemmeno alcun modo di escluderlo. Giacomo
On lun, 2023-02-20 at 15:09 +0100, Giacomo Tesio wrote:
On Mon, 20 Feb 2023 12:59:06 +0100 Marco A. Calamari wrote:
Non hai nessun motivo per pensare o pretendere che il dato esatto, se è stato fornito, torni fuori.
Beh, non hai nemmeno alcun modo di escluderlo.
Mi sembra una risposta cosiddetta "a pipa di cocco" - vedi Braccio di Ferro. Mi spiegheresti il rovesciamento di argomento cosa c'entra? Anche nella Biblioteca di Babele potrei imbattermi nel catalogo completo della Biblioteca di Babele, questo non rende il suo metodo di archiviazione un esempio da seguire od un metodo affidabile.
Giacomo
On Mon, 20 Feb 2023 16:15:37 +0100 Marco A. Calamari wrote:
On lun, 2023-02-20 at 15:09 +0100, Giacomo Tesio wrote:
On Mon, 20 Feb 2023 12:59:06 +0100 Marco A. Calamari wrote:
Non hai nessun motivo per pensare o pretendere che il dato esatto, se è stato fornito, torni fuori.
Beh, non hai nemmeno alcun modo di escluderlo.
Mi sembra una risposta cosiddetta "a pipa di cocco" - vedi Braccio di Ferro.
Mi spiegheresti il rovesciamento di argomento cosa c'entra?
Te lo mostro: https://peertube.opencloud.lu/w/eW497u3UYXmQwcQu9LYEDR Qui vedi GitHub CopyALot distribure una copia esatta del codice di Quake III Arena (sotto GPLv3), ma con una licenza permissiva ed una attribuzione sbagliata. Il codice però era esattamente quello usato come sorgente della programmazione statistica. In altri termini affermare che "in una IA generativa, un sistema di Deep Learning, un modello linguistico, GPT-3 in particolare, una volta addestrato IL DATO NON ESISTE PIU'" è inesatto. Il dato può esistere o meno. Ciò che è sparito completamente è il significato di quel dato.
Anche nella Biblioteca di Babele potrei imbattermi nel catalogo completo della Biblioteca di Babele, questo non rende il suo metodo di archiviazione un esempio da seguire od un metodo affidabile.
:-D La differenza sostanziale è che la Biblioteca di Babele non esiste. Né qualcuno si preoccupa di cantarne le lodi o difenderne l'output. Giacomo
On lun, 2023-02-20 at 16:29 +0100, Giacomo Tesio wrote:
On Mon, 20 Feb 2023 16:15:37 +0100 Marco A. Calamari wrote:
On lun, 2023-02-20 at 15:09 +0100, Giacomo Tesio wrote:
On Mon, 20 Feb 2023 12:59:06 +0100 Marco A. Calamari wrote:
Non hai nessun motivo per pensare o pretendere che il dato esatto, se è stato fornito, torni fuori.
Beh, non hai nemmeno alcun modo di escluderlo.
Mi sembra una risposta cosiddetta "a pipa di cocco" - vedi Braccio di Ferro.
Mi spiegheresti il rovesciamento di argomento cosa c'entra?
Te lo mostro:
https://peertube.opencloud.lu/w/eW497u3UYXmQwcQu9LYEDR
Qui vedi GitHub CopyALot distribure una copia esatta del codice di Quake III Arena (sotto GPLv3), ma con una licenza permissiva ed una attribuzione sbagliata.
Il codice però era esattamente quello usato come sorgente della programmazione statistica.
In altri termini affermare che "in una IA generativa, un sistema di Deep Learning, un modello linguistico, GPT-3 in particolare, una volta addestrato IL DATO NON ESISTE PIU'" è inesatto.
Il dato può esistere o meno.
Non funziona così. La tokenizzazione delle IA generative avviene a diversi livelli, non necessariamente di parola. La lunga sequenza di codice non corrisponde necessariamente, in altre parole, alla comprensione della logica interna alla sequenza, cioè che rappresenta qualcosa di diverso dalla sequenza di parole; può semplicemente essere un token. In ogni caso stai procedendo dal particolare al generale, con un ragionamento intrinsecamente scorretto. Tutte le informazioni usate per alimentare un modello linguistico generativo POSSONO essere recuperate? NO. Se qualcosa riappare, è un effetto "del secondo ordine" Non diffondere UD.
Ciò che è sparito completamente è il significato di quel dato.
Anche nella Biblioteca di Babele potrei imbattermi nel catalogo completo della Biblioteca di Babele, questo non rende il suo metodo di archiviazione un esempio da seguire od un metodo affidabile.
:-D
La differenza sostanziale è che la Biblioteca di Babele non esiste. Né qualcuno si preoccupa di cantarne le lodi o difenderne l'output.
Giacomo
Marco hai scritto: "Non hai nessun motivo per pensare o pretendere che il dato esatto, se è stato fornito, torni fuori. " Ti ho risposto: "Beh, non hai nemmeno alcun modo di escluderlo. " Mi hai chiesto cosa centra e ho provato mostrartelo (violazione del copyright) Hai erroneamente inteso il mio messaggio come un tentativo di falsificare la tua affermazione, ma in realtà la stavo solo completando (e chiarificando). Non solo non c'è motivo di credere di poter estrarre il dato esatto,ma non c'è nemmenio motivo di escuderlo. Il che limita ulteriormente l'utilità del giocattolo. D'altro canto cercare un significato nel output di ChatGPT è del tutto analogo a cercarlo nei fondi di caffé. Giacomo Il 20 Febbraio 2023 18:36:43 UTC, "Marco A. Calamari" <marcoc_maillist@marcoc.it> ha scritto:
On lun, 2023-02-20 at 16:29 +0100, Giacomo Tesio wrote:
On Mon, 20 Feb 2023 16:15:37 +0100 Marco A. Calamari wrote:
On lun, 2023-02-20 at 15:09 +0100, Giacomo Tesio wrote:
On Mon, 20 Feb 2023 12:59:06 +0100 Marco A. Calamari wrote:
Non hai nessun motivo per pensare o pretendere che il dato esatto, se è stato fornito, torni fuori.
Beh, non hai nemmeno alcun modo di escluderlo.
Mi sembra una risposta cosiddetta "a pipa di cocco" - vedi Braccio di Ferro.
Mi spiegheresti il rovesciamento di argomento cosa c'entra?
Te lo mostro:
https://peertube.opencloud.lu/w/eW497u3UYXmQwcQu9LYEDR
Qui vedi GitHub CopyALot distribure una copia esatta del codice di Quake III Arena (sotto GPLv3), ma con una licenza permissiva ed una attribuzione sbagliata.
Il codice però era esattamente quello usato come sorgente della programmazione statistica.
In altri termini affermare che "in una IA generativa, un sistema di Deep Learning, un modello linguistico, GPT-3 in particolare, una volta addestrato IL DATO NON ESISTE PIU'" è inesatto.
Il dato può esistere o meno.
Non funziona così.
La tokenizzazione delle IA generative avviene a diversi livelli, non necessariamente di parola.
La lunga sequenza di codice non corrisponde necessariamente, in altre parole, alla comprensione della logica interna alla sequenza, cioè che rappresenta qualcosa di diverso dalla sequenza di parole; può semplicemente essere un token.
In ogni caso stai procedendo dal particolare al generale, con un ragionamento intrinsecamente scorretto.
Tutte le informazioni usate per alimentare un modello linguistico generativo POSSONO essere recuperate?
NO.
Se qualcosa riappare, è un effetto "del secondo ordine"
Non diffondere UD.
Ciò che è sparito completamente è il significato di quel dato.
Anche nella Biblioteca di Babele potrei imbattermi nel catalogo completo della Biblioteca di Babele, questo non rende il suo metodo di archiviazione un esempio da seguire od un metodo affidabile.
:-D
La differenza sostanziale è che la Biblioteca di Babele non esiste. Né qualcuno si preoccupa di cantarne le lodi o difenderne l'output.
Giacomo
Interessante osservare quanto sia persistente la percezione che i sistemi basati sui Large Language Model "sappiano" qualcosa, e come ci si stupisca e ci si interroghi sugli strani errori che commettono, ad onta della razionale consapevolezza che essi non "sappiano" far altro che generare su basi raffinatamente statistiche la continuazione di una frase. Strano leggere sui social commenti del tipo: 'beh, in fondo anche Socrate sapeva di non sapere'. E' come se la potenza persuasiva dei monopolisti digitali fosse tale da scardinare le nozioni basilari del nostro senso comune. Il capitalismo monopolista è entrato in una fase allucinatoria, questo non l'aveva previsto neanche il filosofo di Treviri. G. On Mon, 20 Feb 2023 at 15:10, Giacomo Tesio <giacomo@tesio.it> wrote:
On Mon, 20 Feb 2023 12:59:06 +0100 Marco A. Calamari wrote:
Non hai nessun motivo per pensare o pretendere che il dato esatto, se è stato fornito, torni fuori.
Beh, non hai nemmeno alcun modo di escluderlo.
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Strano leggere sui social commenti del tipo: 'beh, in fondo anche Socrate sapeva di non sapere'.
Mettiamola così, per un informatico è abbastanza chiaro che GPT-3.5, è un /sistema/ nei cui "suoi 175miliardi di parametri sono rappresentate le connessioni, relazioni sintattiche e semantiche, tra le parole, che gli consentono di generare nuove frasi, alcune sensate, altre meno".Niente di più, niente di meno. E' onesto pure accettare la realtà, che a /sapere/ sono, e sono stati, i programmatori dell'ultimo decennio. Hanno saputo integrare algoritmi (alcuni ideati nel secolo scorso) con la potenza di calcolo e l'enorma quantità di dati /open/ attuale, disponibile /aggratis/. E l'hanno fatto talmente bene da /ingannare/ il pubblico non esperto tanto da indurlo a paragonare una macchina finanche a Socrate. Ma le nostre invettive non fermeranno certo la marea di /app/ a base GPT che sta per travolgerci. Non solo i GAFAM, non solo i monopolisti digitali. Ormai è sufficiente che un paio di data scientist escano da una Big Tech per mettere su una start-up AI-based (vedi SuSea Inc con you.com). E poi c'è Microsoft ... In difficoltà nel decennio scorso (Chrome che "cancella" Internet Explorer, batoste nel software per smartphone e nelle console giochi), negli ultimi anni si è ripresa alla grande. Ha tolto di mezzo Skype comprandoselo e con Teams e OneDrive spadroneggia nella P.A. (oltre all'atavica soggezione della P.A. a Windows e Office). E ora ha l'asso nella manica. Ve lo immaginate Word con integrato GPT-4 ? A.
Buongiorno. Il 20/02/2023 10:04, Giuseppe Attardi ha scritto:
In fondo mi pare sia sterile criticare uno strumento perché non sa fare cose per cui non è stato previsto.
Il problema (il gesto criminale) è che viene presentato (non da un ignaro passante, ma dal CEO dell'azienda che lo produce) come uno strumento in grado di fornire assistenza sanitaria a chi non possa permettersi quella fornita da umani: Frank Pasquale aveva previsto questo esito qualche tempo fa. Weizenbaum molto prima. Un saluto, Daniela
Ciao Giuseppe, permettimi di chiarire On Mon, 20 Feb 2023 10:04:18 +0100 Giuseppe Attardi wrote:
In fondo mi pare sia sterile criticare uno strumento perché non sa fare cose per cui non è stato previsto.
Io non sto criticando ChatGPT, un esperimento sociale decisamente interessante realizzato attraverso un programma statistico solo poco meno interessante. Non avrebbe molto senso criticare una cosa: non può migliorare a fronte della mia critica, ragionando e comprendendo il suo significato. Ciò che critico è l'interpretazione alienante (ed alienata) che emerge persino dal linguaggio che utiliziamo qui nel riferirci a questo programma statistico. ChatGPT non sa in alcun significato attribuito finora al sapere. Per affermare che sa, dobbiamo ridurre il sapere ad indicizzazione senza archiviazione, il suo "modello" è del tutto analogo ad un archivio zip profondamente danneggiato (ma senza checksum che ci permetta di riconoscere o localizzare il danno). ChatGPT non sa. Sostenere il contrario non significa solo fraintendere la natura dell'oggetto (cosa che di per sé ne decreta il successo, nel gioco di imitazione per cui è progettato) ma svilire il sapere umano che non è fatto di simboli e relazioni fra simboli, ma di informazioni che simboli e relazioni servono ad esprimere. I computer sono meri specchi. Ma dobbiamo fare attenzione a non confondere l'immagine riflessa con un nostro simile o ci lasceremo imprigionare in un labirinto di specchi costruito da altri, come il Minotauro di Dürrenmat. Per questo ti prego di non difendere uno specchio. Non lo sto criticando. Sto criticando chi ci vede (o dice di vederci) altro oltre lo specchio.
PS. L’intelligenza è una qualità banale: tutti ce l’hanno, è solo una questione di livelli.
Tutti gli esseri umani, certo. Ma animali e artefatti non hanno intelligenza. Hanno istinto (i primi) e schemi di funzionamento (i secondi). Non intelligenza. L'intelligenza è negli occhi di chi guarda. Proiettiamo su di loro le nostre motivazioni, interpretando il loro comportamento sulla base dell'esperienza che lo giustificherebbe in noi. Giacomo PS: non parlerei nemmeno di "livelli": l'intelligenza è una qualità estremamente complessa della mente umana, cercare di quantificarla o ordinarla è il modo più rapido di dimostrare di non averne compreso la natura.
participants (7)
-
Antonio -
Daniela Tafani -
Diego Giorio -
Giacomo Tesio -
Giuseppe Attardi -
Guido Vetere -
Marco A. Calamari