Sul punto del tuo messaggio penso di concordare.

E' possibile che gli LLM ci aiutino a capire qualcosa della lingua, ammesso che si riesca a esplorare le loro intricatezze, ma dubito ci aiutino a descriverla (ci dicono che, ma non perché)

Questi modelli sono predittivi senza essere descrittivi: il modello "sa" in quanto rispecchia le probabilità del discorso: sintassi, semantica e grammatica corretti sono probabilisticamente interni alla lingua che il modello rispecchia in quanto sono rare le violazioni alle rispettive regole nel set di addestramento.

Addestrando esclusivamente con testi sgrammaticati e "dadaisti" penso otterremmo risultati diversi.

Invece insegnare la sintassi e la semantica al contrario costruisce modelli descrittivi, non solo predittivi.

Anche l'umano inizialmente impara a parlare (più o meno) correttamente, ma poi impara anche il perché.

A.


On 25/02/25 13:21, Giuseppe Attardi wrote:
LOL, avevo previsto l’obiezione, ma non ti sei accorto della nota:

	“Potrebbe darsi che ChatGPT abbia letto da qualche parte la spiegazione di ARM.”

Comunque anche la spiegazione su Google è vaga, non entra nell’analisi sintattica dettagliata della frase e la risoluzione dell’anafora (la per lei) per spiegarne l’ambiguità, che era il punto del mio messaggio.

--

On 25 Feb 2025, at 12:19, nexa-request@server-nexa.polito.it wrote:
Date: Tue, 25 Feb 2025 12:19:26 +0100
From: Alberto Cammozzo <ac+nexa@zeromx.net>
To: nexa@server-nexa.polito.it
Subject: Re: [nexa]  Perché Richard Stallman sbaglia in tema di
	intelligenza artificiale
Message-ID: <7eef1c2c-1947-495a-830b-8aca3b0c0140@zeromx.net>
Content-Type: text/plain; charset="utf-8"; Format="flowed"

"lei suona il violino e lui la tromba" su Google (con le virgolette) mi 
da due pagine di risultati, tra cui testi come:

   Si tratta di una tipica anfibologia, ovvero una frase ambigua dal
   punto di vista semantico. Altri esempi: “Ho visto mangiare una
   gallina” in cui non è chiaro se la gallina mangia o viene mangiata,
   oppure il più noto: “Moglie e marito si esibiscono su un palco: lei
   suona il violino e lui la tromba”.

Occorrerebbe provare con testi ambigui che non siano già oggetto di 
"spiegazione".

Alberto


On 25/02/25 05:52, Giuseppe Attardi wrote:
Per anni ho pensato che per capire il linguaggio si dovesse passare 
attraverso l’analisi sintattica e poi per quella semantica, perché 
così dicevano i testi di linguistica.
Ho sviluppato un parser a dipendenze multiligua basato su word 
embedding e rete neurale che funzionava molto bene.
L’ultima incarnazione si chiama DiaParser e si trova su GitHub:
https://github.com/Unipisa/diaparser

Tuttavia John Hewitt ha scoperto, usando un probe sintattico, che le 
matrici di attention dei transformer contengono una rappresentazione 
dell’albero sintattico della frase.
Altri layer delle metrici corrispondono ad altri fenomeni, come l’anafora.
I word embedding, che sono al primo livello del transformer, danno una 
rappresentazione molto articolata del significato delle parole, 
inclusi sinonimi e relazioni semantiche tra parole.

A questo punto l’ipotesi che si debba insegnare esplicitamente la 
grammatica e la semantica a un modello ha vacillato.
Del resto i bambini imparano a capire e parlare una lingua ben prima 
di andare a scuola e che gli vengano insegnati i concetti linguistici 
astratti.
Probabilmente l’esposizione a 30 milioni di frasi nei primi tre anni 
di vita è sufficiente (c’è chi dice siano di più, tenendo conto anche 
dei feedback visivi).

Quindi, mai dare per scontate certe ipotesi che ci sembrano ovvie.

Ho provato quindi a chiedere questo a ChatGPT.


Analizza questa frase: lei suona il violino e lui la tromba. Cosa fa 
lui esattamente?


ChatGPT: La frase è ambigua perché la costruzione grammaticale lascia 
spazio a due interpretazioni:

1. Interpretazione comune e probabile: “Lei suona il violino e lui 
[suona] la tromba.” Qui si sottintende il verbo “suonare” anche per il 
secondo soggetto, quindi si capisce che entrambi stanno suonando 
strumenti musicali.

2. Interpretazione ambigua e comica: “Lei suona il violino e lui la 
tromba” potrebbe essere letto in modo diverso, dove “la tromba” non è 
lo strumento musicale ma un’azione riferita a “lei”. In italiano 
colloquiale, “trombare” può avere un significato volgare (sinonimo di 
“fare sesso”). Se si legge in questo modo, la frase assume un doppio 
senso ironico.


Il contesto in cui viene detta o scritta la frase aiuta a chiarire 
quale delle due interpretazioni sia corretta.


Potrebbe darsi che ChatGPT abbia letto da qualche parte la spiegazione 
di ARM.

Ma anche concludere che il modello non sa fare certe cose potrebbe 
essere azzardato.


On 14 Feb 2025, at 16:59, Angelo Raffaele Meo <angelo.meo@polito.it> 
wrote:


Difendo Richard Stallman ed anche l'Intelligenza Artificiale.
Nel 1960, quando quasi tutti i partecipanti a questo dibattito non 
erano ancora nati oppure frequentavano l'asilo, io realizzai uno dei 
primi prototipi di quel capitolo dell'Intelligenza Artificiale che 
chiamiamo "riconoscimento della voce". Riconosceva sotto dettatura 
una ventina di parole distinte, isolate, basandosi sull'analisi 
acustico-lessicale del segnale vocale. Ad esempio, i brevissimi 
istanti di silenzio caratteristici della lettera esplosiva "t" 
suggerivano la parola "sette" oppure la parola "otto", mentre le 
vocali hanno spettri di frequenza diversi.
In quella prima fase della ricerca comprendemmo, ad esempio, che la 
dettatura automatica o la traduzione da una lingua ad un'altra 
richiedono l'integrazione dell'analisi lessicale con l'analisi 
sintattica, ma è ancora più importante l'analisi semantica.
Fui io ad introdurre un esempio significativo che è stato citato più 
volte. Consideriamo la frase "lei suona il piano e lui la tromba". 
Due diversi alberi sintattici possono sottendere quella frase. Nel 
primo albero sintattico la parola "tromba" è un'unità nominale; nel 
secondo albero sintattico la stessa parola è unità verbale.
Per l'ascoltatore che non sa nulla della vita sentimentale di lei e 
lui, "tromba" è un'unità nominale; invece, per l'ascoltatore che sa 
che lei e lui sono amanti, in un particolare contesto della 
conversazione, in virtù di quel capitolo della semantica che è 
chiamato "pragmatica", "tromba" diventa un'unità verbale, con 
implicazioni importanti sul processo di traduzione.
In questo momento, introdurre la semantica o la pragmatica 
nell'elaborazione del linguaggio naturale è ancora difficilissimo. 
Quindi, Intelligenza Artificiale interpretata alla lettera non esiste 
ancora. Sono sicuro che questo fosse il significato della 
provocatoria affermazione di Stallman e quindi che Stallman abbia 
ragione.
Comunque, senza usare semantica o pragmatica, in virtù di una 
raffinata elaborazione statistica e della capacità tecnologica di 
trattare immensi volumi di dati, quel nuovo insieme di discipline 
scientifiche che chiamiamo Intelligenza Artificiale sta producendo 
risultati meravigliosi. La dettatura automatica e la traduzione da 
una lingua all'altra sono due esempi significativi. Commettono ancora 
qualche errorino ma sono di grandissima utilità.
Viva l'Intelligenza Artificiale, chiara dimostrazione 
dell'intelligenza naturale di homo sapiens.
------------------------------------------------------------------------
*From:* nexa <nexa-bounces@server-nexa.polito.it> on behalf of 
Giuseppe Attardi <attardi@di.unipi.it>
*Sent:* Friday, February 14, 2025 12:20 PM
*To:* nexa@server-nexa.polito.it <nexa@server-nexa.polito.it>
*Subject:* Re: [nexa] Perché Richard Stallman sbaglia in tema di 
intelligenza artificiale
È anche peggio di così, come ammettono nei manuali per medici:

I medici spesso utilizzano termini vaghi come "altamente probabile", 
"improbabile" o "non è da escludere" per descrivere la possibilità di 
una malattia.

<default_share_msd.jpg>
Strategie per il processo decisionale clinico - Argomenti speciali - 
Manuali MSD Edizione Professionisti 
<https://www.msdmanuals.com/it/professionale/argomenti-speciali/processo-decisionale-clinico/strategie-per-il-processo-decisionale-clinico>
msdmanuals.com 
<https://www.msdmanuals.com/it/professionale/argomenti-speciali/processo-decisionale-clinico/strategie-per-il-processo-decisionale-clinico>

<https://www.msdmanuals.com/it/professionale/argomenti-speciali/processo-decisionale-clinico/strategie-per-il-processo-decisionale-clinico>


On 14 Feb 2025, at 12:00, nexa-request@server-nexa.polito.it wrote:

From: Giacomo Tesio <giacomo@tesio.it>
To: nexa@server-nexa.polito.it
Subject: Re: [nexa]  Perché Richard Stallman sbaglia in tema di
   intelligenza artificiale
Message-ID: <5FABC401-5B15-4A28-9850-5BC9ED4E2ED6@tesio.it>
Content-Type: text/plain; charset=UTF-8

Giuseppe, mi permetto un buon consiglio non richiesto:

Il 14 Febbraio 2025 10:36:55 UTC, Giuseppe Attardi ha scritto:

Quante probabilità ho che sia questo o quello?

Quant’è la probabilità di guarigione?

Quanto stima possa durare la riabilitazione?

Quant’è il rischio di ricadute?


È tutto un ragionare a spanne su probabilità stimate a naso.
se il tuo medico risponde a domande come queste con stime numeriche
delle probabilità (a naso o meno), cambia medico.
-------------- next part --------------
An HTML attachment was scrubbed...
URL: <http://server-nexa.polito.it/pipermail/nexa/attachments/20250225/94741022/attachment.htm>

------------------------------

Subject: Digest Footer

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


------------------------------

End of nexa Digest, Vol 190, Issue 54
*************************************