:) Grande Sr. Tesio ! uno dei migliori messaggi della lista. Se da qualche parte c'è un'università o un politecnico che ha bisogno di un rettore lei è una proposta perfetta! Saluti On Sat, Mar 01, 2025 at 12:46:05PM +0100, Giacomo Tesio wrote:
L'archivio Nexa sarà veramente prezioso in futuro: spero che ne esistano molte copie, archiviate con sistemi ad alta affidabilità.
Un giorno, storici, psicologi e sociologi studieranno questi scambi.
Ci si chiederà come sia potuto accadere che tante persone intelligenti e colte attribuiscano "apprendimento", "intelligenza" e persino "capacità linguistiche" ad un grosso archivio compresso.
Chissà quali bizzarre ipotesi faranno questi studiosi del futuro.
Ricondurranno questi scambi ad allucinazioni di massa? Alla superficialità di intellettuali decadenti? A "echo chamber" personalizzate dai BigTech? Ad alienazione cibernetica? A servitù volontaria?
Alcuni parleranno di "secoli bui", tracciando analogie col medioevo. Analogie che ci indignerebbero, ed indignerebbero ancor di più molti intellettuali medioevali.
Questo breve messaggio in bottiglia è per ricordare loro che non tutti avevano completamente perso la lucidità e c'era ancora nel 2025 chi comprendeva come da una versione propriamente compressa di enormi quantità di testo sia possibile estrarre frammenti che, ancorché corrotti e privi di significato, rispettino i pattern statisticamente rilevanti nel dataset selezionato per la loro programmazione.
E se sorriderete all'immagine dei minatori di LLM alla ricerca di verità perdute, distillate dalle GPU... sappiate che il vostro futuro sollazzo è il maggior risultato economico che le AI generative abbiano prodotto.
Ai miei contemporanei suggerisco invece di provare questo nuovo "large language model", che ha "imparato" a programmare in C un intero kernel unix-like "leggendo" una singola mailing list pubblica (https://lkml.org/)
https://git.kernel.org/torvalds/t/linux-6.14-rc4.tar.gz
Giacomo (che spera in futuro continuino ad esistere ironia e sarcasmo... ;-)
On Sat, 1 Mar 2025 11:40:54 +0100 Guido Vetere wrote:
La bipartizione sintassi-semantica (che data indietro almeno al '600) fu già rifiutata dalla Lexicon-Grammar di Maurice Gross (*Méthodes en syntaxe*, 1975), portata anche in Italia da Annibale Elia. Gli LLM confermano oggi che i 'pattern' sintattico-semantici, benché esibiscano 'somiglianze di famiglia', vanno presi uno a uno, e di fatto solo la forza bruta computazionale può compiere l'impresa. Credo (l'ho scritto anche qui <https://lucasossellaeditore.it/libro/intelligenze-aliene/>) che la lessicografia dovrà trovare il modo di estrarre conoscenze dalle miniere degli LLM, e che queste conoscenze dovranno basarsi su modelli teorici adeguati, che forse ancora non abbiamo. Ma cento miliardi di numeri in virgola mobile non sono una teoria linguistica, perché una teoria è un modello causale. Il fatto che per fare certe operazioni non ce ne sia bisogno non significa nulla: si riusciva a navigare anche senza l'idraulica, per dire ...
G.
On Tue, 25 Feb 2025 at 05:52, Giuseppe Attardi <attardi@di.unipi.it> wrote:
Per anni ho pensato che per capire il linguaggio si dovesse passare attraverso l’analisi sintattica e poi per quella semantica, perché così dicevano i testi di linguistica. Ho sviluppato un parser a dipendenze multiligua basato su word embedding e rete neurale che funzionava molto bene. L’ultima incarnazione si chiama DiaParser e si trova su GitHub: https://github.com/Unipisa/diaparser
Tuttavia John Hewitt ha scoperto, usando un probe sintattico, che le matrici di attention dei transformer contengono una rappresentazione dell’albero sintattico della frase. Altri layer delle metrici corrispondono ad altri fenomeni, come l’anafora. I word embedding, che sono al primo livello del transformer, danno una rappresentazione molto articolata del significato delle parole, inclusi sinonimi e relazioni semantiche tra parole.
A questo punto l’ipotesi che si debba insegnare esplicitamente la grammatica e la semantica a un modello ha vacillato. Del resto i bambini imparano a capire e parlare una lingua ben prima di andare a scuola e che gli vengano insegnati i concetti linguistici astratti. Probabilmente l’esposizione a 30 milioni di frasi nei primi tre anni di vita è sufficiente (c’è chi dice siano di più, tenendo conto anche dei feedback visivi).
Quindi, mai dare per scontate certe ipotesi che ci sembrano ovvie.
Ho provato quindi a chiedere questo a ChatGPT.
Analizza questa frase: lei suona il violino e lui la tromba. Cosa fa lui esattamente?
ChatGPT: La frase è ambigua perché la costruzione grammaticale lascia spazio a due interpretazioni:
1. Interpretazione comune e probabile: “Lei suona il violino e lui [suona] la tromba.” Qui si sottintende il verbo “suonare” anche per il secondo soggetto, quindi si capisce che entrambi stanno suonando strumenti musicali.
2. Interpretazione ambigua e comica: “Lei suona il violino e lui la tromba” potrebbe essere letto in modo diverso, dove “la tromba” non è lo strumento musicale ma un’azione riferita a “lei”. In italiano colloquiale, “trombare” può avere un significato volgare (sinonimo di “fare sesso”). Se si legge in questo modo, la frase assume un doppio senso ironico.
Il contesto in cui viene detta o scritta la frase aiuta a chiarire quale delle due interpretazioni sia corretta.
Potrebbe darsi che ChatGPT abbia letto da qualche parte la spiegazione di ARM.
Ma anche concludere che il modello non sa fare certe cose potrebbe essere azzardato.
On 14 Feb 2025, at 16:59, Angelo Raffaele Meo <angelo.meo@polito.it> wrote:
Difendo Richard Stallman ed anche l'Intelligenza Artificiale. Nel 1960, quando quasi tutti i partecipanti a questo dibattito non erano ancora nati oppure frequentavano l'asilo, io realizzai uno dei primi prototipi di quel capitolo dell'Intelligenza Artificiale che chiamiamo "riconoscimento della voce". Riconosceva sotto dettatura una ventina di parole distinte, isolate, basandosi sull'analisi acustico-lessicale del segnale vocale. Ad esempio, i brevissimi istanti di silenzio caratteristici della lettera esplosiva "t" suggerivano la parola "sette" oppure la parola "otto", mentre le vocali hanno spettri di frequenza diversi. In quella prima fase della ricerca comprendemmo, ad esempio, che la dettatura automatica o la traduzione da una lingua ad un'altra richiedono l'integrazione dell'analisi lessicale con l'analisi sintattica, ma è ancora più importante l'analisi semantica. Fui io ad introdurre un esempio significativo che è stato citato più volte. Consideriamo la frase "lei suona il piano e lui la tromba". Due diversi alberi sintattici possono sottendere quella frase. Nel primo albero sintattico la parola "tromba" è un'unità nominale; nel secondo albero sintattico la stessa parola è unità verbale. Per l'ascoltatore che non sa nulla della vita sentimentale di lei e lui, "tromba" è un'unità nominale; invece, per l'ascoltatore che sa che lei e lui sono amanti, in un particolare contesto della conversazione, in virtù di quel capitolo della semantica che è chiamato "pragmatica", "tromba" diventa un'unità verbale, con implicazioni importanti sul processo di traduzione. In questo momento, introdurre la semantica o la pragmatica nell'elaborazione del linguaggio naturale è ancora difficilissimo. Quindi, Intelligenza Artificiale interpretata alla lettera non esiste ancora. Sono sicuro che questo fosse il significato della provocatoria affermazione di Stallman e quindi che Stallman abbia ragione. Comunque, senza usare semantica o pragmatica, in virtù di una raffinata elaborazione statistica e della capacità tecnologica di trattare immensi volumi di dati, quel nuovo insieme di discipline scientifiche che chiamiamo Intelligenza Artificiale sta producendo risultati meravigliosi. La dettatura automatica e la traduzione da una lingua all'altra sono due esempi significativi. Commettono ancora qualche errorino ma sono di grandissima utilità. Viva l'Intelligenza Artificiale, chiara dimostrazione dell'intelligenza naturale di homo sapiens. ------------------------------ *From:* nexa <nexa-bounces@server-nexa.polito.it> on behalf of Giuseppe Attardi <attardi@di.unipi.it> *Sent:* Friday, February 14, 2025 12:20 PM *To:* nexa@server-nexa.polito.it <nexa@server-nexa.polito.it> *Subject:* Re: [nexa] Perché Richard Stallman sbaglia in tema di intelligenza artificiale
È anche peggio di così, come ammettono nei manuali per medici:
I medici spesso utilizzano termini vaghi come "altamente probabile", "improbabile" o "non è da escludere" per descrivere la possibilità di una malattia.
<default_share_msd.jpg> Strategie per il processo decisionale clinico - Argomenti speciali - Manuali MSD Edizione Professionisti <https://www.msdmanuals.com/it/professionale/argomenti-speciali/processo-deci...> msdmanuals.com <https://www.msdmanuals.com/it/professionale/argomenti-speciali/processo-deci...>
<https://www.msdmanuals.com/it/professionale/argomenti-speciali/processo-deci...>
On 14 Feb 2025, at 12:00, nexa-request@server-nexa.polito.it wrote:
From: Giacomo Tesio <giacomo@tesio.it> To: nexa@server-nexa.polito.it Subject: Re: [nexa] Perché Richard Stallman sbaglia in tema di intelligenza artificiale Message-ID: <5FABC401-5B15-4A28-9850-5BC9ED4E2ED6@tesio.it> Content-Type: text/plain; charset=UTF-8
Giuseppe, mi permetto un buon consiglio non richiesto:
Il 14 Febbraio 2025 10:36:55 UTC, Giuseppe Attardi ha scritto:
Quante probabilità ho che sia questo o quello?
Quant’è la probabilità di guarigione?
Quanto stima possa durare la riabilitazione?
Quant’è il rischio di ricadute?
È tutto un ragionare a spanne su probabilità stimate a naso.
se il tuo medico risponde a domande come queste con stime numeriche delle probabilità (a naso o meno), cambia medico.
-- _______________________________________ / "La forza e' la soluzione giusta solo \ \ se si e' sicuri di vincere." / --------------------------------------- \ \ ,__, | | (oo)\| |___ (__)\| | )\_ | |_w | \ | | || * Cower.... ----------------------------------------------------------------------------- In support of Richard Stallman, Normalizing Truth, Reason, Dialogue: https://stallmansupport.org ----------------------------------------------------------------------------- www.hipatia.net - wiki.hipatia.net xmpp: jucar at hipatia.net friends: stallman.org - Frangar, non flectar - Homo mundus minor - gutta cavat lapidem Karmanyaevaadhikaarasthe ma phaleshu kadachana Fingerprint: 7464 DDDE 9D5D 3B6C CBF9 7699 A021 CE74 EA7A D95A Public key 0xa021ce74ea7ad95a at pgp.mit.edu -----------------------------------------------------------------------------