Se la mia insistenza sul tema annoia o disturba, per favore avvisatemi e continuo in privato con chi è disponibile.***
rif: vol 185, Issue 42 - Date: Thu, 12 Sep 2024 00:06:38 +0000 - From: Giacomo Tesio <giacomo@tesio.it>***Grazie Giacomo ma non sono convinto. In calce si trova il testo integrale del tuo ultimo intervento, ne estrapolo alcuni passi.---> GT: Nessuna macchina lo saprà mai fare.> AM: Su questo non ho dubbi ma equivale a dire che tu ed io non saremo mai uguali.Chiamerei "human learning" il processo che hai descritto
Chiameresti "intelligente" il comportamento acquisito.---> GT: Nessun altro prende la tua testa, la apre e scrive nel tuo cervello una serie di dati a caso,
misura quanto il tuo comportamento si discosta da quanto desidera e modifica un pochino
quei dati, poi misura quanto il tuo comportamento si discosta da quanto
desidera e modifica di nuovo un pochino
quei dati, e ripete il procedimento milioni o
miliardi di volte fin quando il tuo comportamento non si discosta più di un ε trascurabile
da quanto desidera.> AM: Il comportamento del bambino che comincia a parlare è analogo, anche se non identico ai significati letterali delle tue parole. Si veda "mamma", da mmm fino alla corrispondenza (quasi) totale delle emissioni vocali di bambino e mamma. (Quasi) perchè è probabile che le impronte vocali resteranno differenti.---> GT: La scelta di termini più appropriati è oggetto di un altro thread, puoi star certo che
non c'è alcuna intelligenza dentro un LLM.
Si tratta di un software progettato per _sembrare_ intelligente, ma solo
a chi non sa come funziona.
> AM: Intelligenza: prima definiamola nel modo univoco il più possibile, quest'ultima precisazione è una parte della prima affermazione: nessuno sarà mai uguale a nessun altro, si vedano gemelli monovulari.Sul "sembrare" intelligenti ricordo un film di Hal Ashby, fra gli ultimi di Peter Sellers: Oltre il giardino, tutto un gioco fra non essere / essere percepito, sembrare / forse essere? Da vedere, un paio d'ore godibilisseme.---> GT: La natura del nostro apprendimento non è statistica: posso spiegarti come contare
fino a 31 sulle dita di una mano senza fartelo vedere nemmeno una volta. ... ... ...> AM: Come "insegni" al tuo allievo "dito", "sollevare", "combinazione" ...?Come "insegni" al tuo allievo 0, 1, 2 eccetera?Come gli "insegni" potenza?---> GT: non solo non ti fornisco nemmeno un esempio (niente statistica), ma non ti
sto insegnando come fare, ti ho solo detto come fare ad imparare.> AM: Sicuro? Vedi sopra, resta fermo il tuo diritto ad affermare che (io) sbaglio ma sono convinto che le cose non avvengono come (tu) le hai descritte, questo penso per il cd mondo vivente, per le macchine tu e tutti gli altri siete i miei maestri e per questa opera continuo a ringraziarvi.... se posso, invito a leggere Chalmers (Could a Large Language Model Be Conscious? https://www.bostonreview.net/articles/could-a-large-language-model-be-conscious/).---Sintesi telegrafica: quanto, come, dove noi umani siamo diversi dalle macchine? (io) credo molto meno di quanto Giacomo ed altri affermano, propongo di esaminare la questione " da fuori" non dal punto di vista umano, ritengo che l'uomo misura tutte le cose ma NON E' la misura, la dico brutta che non piace neppure a me: siamo oggetto, non soggetto.Chiudo con una domanda: sarebbe possibile, ed anche facile, riordinare alcuni temi con tutti gl'interventi evitando ripetizioni e con una presentazione grafica ordinata, tale considerata a giudizio insindacabile dell'uomo? Come scrive Giacomo, ed umilmente concordo, non siamo uguali alle macchine :-). Ad esempio, trovo questa discussione molto interessante, spero di riuscire a fare il riordino di cui sopra ma ... se lo facesse una macchina ...Infinitamente grazie e cordialità.Duccio (Alessandro Marzocchi)Message: 2
Date: Thu, 12 Sep 2024 00:06:38 +0000
From: Giacomo Tesio <giacomo@tesio.it>
To: nexa@server-nexa.polito.it
Subject: Re: [nexa] AI Training is Copyright Infringement
Message-ID: <10D4C32B-0FBA-4F95-B96D-DB44AEE2AD27@tesio.it>
Content-Type: text/plain; charset=utf-8
Caro Duccio,
Quando tu impari, tu (soggetto) impari (verbo).
Nessun altro prende la tua testa, la apre e scrive nel tuo cervello una serie di dati a caso,
misura quanto il tuo comportamento si discosta da quanto desidera e modifica un pochino
quei dati, poi misura quanto il tuo comportamento si discosta da quanto
desidera e modifica di nuovo un pochino
quei dati, e ripete il procedimento milioni o
miliardi di volte fin quando il tuo comportamento non si discosta più di un ε trascurabile
da quanto desidera.
In un tale ipotetico processo, tu saresti un oggetto che subisce l'azione,
non un soggetto che la compie.
Chiameresti il processo che ho descritto "human learning"?
Chiameresti "intelligente" il comportamento acquisito in questo modo?
(ovvero tale che non si discosti statisticamente più ε da quello prestabilito)
Se no, non hai ragione di chiamare "machine learning" il processo di sviluppo di un LLM
come non hai ragione di chiamare "intelligenza artificiale" il risultato di tale processo.
La scelta di termini più appropriati è oggetto di un altro thread, puoi star certo che
non c'è alcuna intelligenza dentro un LLM.
Si tratta di un software progettato per _sembrare_ intelligente, ma solo
a chi non sa come funziona.
La natura del nostro apprendimento non è statistica: posso spiegarti come contare
fino a 31 sulle dita di una mano senza fartelo vedere nemmeno una volta.
Il tuo pugno chiuso significa zero.
Ad ogni dito associamo una potenza di due:
- pollice = 1
- indice = 2
- medio = 4
- anulare = 8
- mignolo = 16
Solleva una qualsiasi combinazione di dita e somma i valori associati a ciascun dito:
otterrai un numero fra 0 e 31.
Ora, senza che io ti dica altro o ti mostri alcun esempio, puoi imparare da solo come
mettere le varie combinazioni in ordine dal valore complessivo più piccolo, al più grande.
Nota bene: non solo non ti fornisco nemmeno un esempio (niente statistica), ma non ti
sto insegnando come fare, ti ho solo detto come fare ad imparare.
Tu (soggetto) impari (verbo).
Se vuoi.
Nessuno ti butta conoscenza dentro il cervello.
Nessuna macchina lo saprà mai fare.
Giacomo
Il 11 Settembre 2024 22:50:58 UTC, alessandro marzocchi ha scritto:
> Sun, 08 Sep 2024 23:25:19 +0000 Giacomo Tesio <giacomo@tesio.it Subject:
> Re: [nexa] AI Training is Copyright Infringement
>
> > Direi piuttosto che fiumi di inchiostro sono stati versati per
> > giustificare la ridefinizione di termini come "imparare" e "apprendere"
> > affinché possano essere applicati alle macchine.
> >
>
> *****
> E' autorevole, diffusa e prevalente la convinzione che noi uomini non siamo
> confrontabili con queste macchine.
> Eppure non mi convince, mi pare che il nostro modo di imparare è anch'esso
> statistico, da pappagallo: ad esempio impariamo a dire mamma -
> probabilmente è la nostra prima parola - perchè alla stessa associamo una
> persona specifica ed arriviamo a questa associazione persona-parola dopo
> una serie più o meno lunga di esperienze.
> Dunque, secondo la mia convinzione personale, quando critichiamo la
> macchina per il fondamento statistico basiamo la nostra critica su una
> modalità che è anche umana.
> Un'altra riflessione, sulla quantità di tempo e di esperienze prima di
> arrivare alle capacità attuali di noi umani: credo nessuno abbia una
> risposta, ma certamente abbiamo impiegato moltissimi anni, molte e molte
> generazioni.
> *David Chalmers* non afferma la coscienza delle macchine ma neppure la nega
> per principio, in sintesi ritiene che esse hanno una qualche coscienza e
> che progrediscono (Could a Large Language Model Be Conscious?
> https://www.bostonreview.net/articles/could-a-large-language-model-be-conscious/
> ).
> Sulla parola, *Ludwig Wittgenstein* aveva scritto opinioni interessanti
> riferendole anche ad Agostino: The individual words in language name
> objects—sentences are combinations of such names.——In this picture of
> language we find the roots of the following idea: Every word has a meaning.
> This meaning is correlated with the word. It is the object for which the
> word stands. (Philosophical Investigations, I,1, Basil Blackwell Ltd,
> 1986).
> Insomma, quel che conta è la realtà, non il modo con cui la si rappresenta.
> Vedo anch'io tante differenze fra noi e le macchine, sono meno ottimista
> sulla invincibilità della nostra fortezza e sull'ipotesi che la realtà non
> esisterebbe senza noi, siamo una parte della realtà, non la realtà (in
> tutta umiltà: Protagora ci ha fregato).
> Cordialmente.
> Duccio (Alessandro Marzocchi)
------------------------------
Message: 3
Date: Thu, 12 Sep 2024 03:33:51 +0200
From: Giacomo Tesio <giacomo@tesio.it>
To: nexa@server-nexa.polito.it
Subject: Re: [nexa] AI Training is Copyright Infringement
Message-ID: <20240912033351.4cf2ff98@hermes.development.it>
Content-Type: text/plain; charset=UTF-8
Caro Fabio,
ho riflettuto a lungo se risponderti, perché non mi piace perdere tempo
e non mi sembri interessato a comprendere come funzionano i software di
cui parliamo. Non so perché, ma mi sembra evidente.
Tuttavia, rispondendo a Duccio, mi sono reso conto che subite
la stessa confusione ("anfibolia"? :-D) e la lettura del paper
potrebbe svelare ad entrambi la dinamica dell' "imitation game"
che OpenAI & friends stanno "giocando".
On Tue, 10 Sep 2024 12:07:53 Fabio Alemagna <falemagn@gmail.com> wrote:
> Io trovo che sia scientificamente interessante e persino
> strabiliante che un algoritmo che non è stato esplicitamente
> istruito per saper far di conto, riesca a far di conto entro
> una certa misura, semplicemente per essere stato allenato
> su tomi che spiegano come si fa di conto.
Commentavi questo articolo: https://arxiv.org/pdf/2301.13867
Leggiamo come è composto il dataset con cui hanno testato le
"competenze matematiche" dei LLM di OpenAI (pagina 4):
- books that are widely used in universities to teach upper
undergraduate or first-year graduate courses in a degree in
mathematics
- math.stackexchange.com, a collection of books, and the
MATH dataset
- the book Problem-Solving Strategies, that is often used
to prepare for mathematical competitions
- il dataset di https://arxiv.org/abs/1912.01412 che contiene
decine di esercizi... e le soluzioni.
Leggi con calma e rifletti: non noti niente?
Questi ricercatori NON hanno sottoposto a ChatGPT e GPT-4 problemi
inediti, ma problemi tratti da eserciziari disponibili in rete.
Ora, se immagini una qualche "intelligenza artificiale" alle prese con
tutti questi problemi, è ragionevole trovare i risultati sintetizzati
nell'abstract che avevo citato "strabilianti" [1].
Ma se hai chiaro il processo di compilazione / compressione dei testi
sorgente che produce il LLM, trovi quei risultati piuttosto ovvi: il
LLM ha prodotto in output le soluzioni codificate nelle matrici
eseguibili.
Quale delle due spiegazioni passa il rasoio di Occam?
1. ChatGPT "è intelligente ma non si impegna"
2. ChatGPT è un archivio compresso eseguibile che contiene i problemi
che gli sono stati sottposti ed ha "autocompletato" i problemi,
con le soluzioni che li seguivano?
Che tu, Duccio e molti altri che non comprendono come funzionano questi
software programmati staticamente, vi facciate ingannare da questo
"imitation game" è purtroppo prevedibile e previsto.
L'enorme quantità di testi compressi dentro GPT-4 (alcuni dei quali
mai pubblicati, come quelli prodotti dai giornalisti che fanno i
"chatbot helper" per arrotondare) rende estremamente improbabile
che un estratto venga servito a qualcuno che lo possa riconoscere.
In questo caso però, questo è proprio ciò che è successo!
E che 8 ricercatori universitari non si siano accorti di aver
dimostrato il plagio [2] di decine di manuali sotto copyright [3]
rende _evidente_ quanti DANNI la favola della "intelligenza
artificiale", del "machine learning", delle "allucinazioni"
e stronzate varie stia facendo alla ricerca informatica
e al progresso dell'umanità.
E nota che non si tratta di persone impreparate.
Ma le parole che usiamo per descrivere la realtà determinano
il nostro modo di intepretarla.
Non fatevi ingannare: l'intelligenza artificiale non esiste.
Le macchine non imparano, non hanno allucinazioni
e non funzionano assolutamente come un essere umano.
Urge cambiare linguaggio.
Giacomo
[1] non potevi scegliere un termine più appropriato! :-D
https://www.etimo.it/?term=strabiliare
[2] spacciando ChatGPT come una "intelligenza artificiale _generativa_"
si/gli intesta la paternità delle soluzioni, sottraendola agli
autori https://it.wikipedia.org/wiki/Plagio_(diritto_d'autore)
[3] per altro, in un modo che esclude l'applicabilità del fair
use negli USA, come ci ha spiegato benissimo Giancarlo qui
https://server-nexa.polito.it/pipermail/nexa/2024-September/053236.html
perché ChatGPT diventa un surrogato gratuito di quegli stessi testi,
riducendone il valore di mercato
------------------------------
Subject: Digest Footer
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
------------------------------
End of nexa Digest, Vol 185, Issue 42
*************************************