Buongiorno 

Qui potete vedere l'analisi del corpus di Jovanotti fatta con Voyant Tools
https://voyant-tools.org/?corpus=a44425f9cfc778bbcc0e948c22139153

Ho caricato il file di Antonio senza togliere i titoli nè altro e quindi i numeri sono leggermente più alti di quelli di Antonio, ma il senso del discorso non cambia.
Voyant Tools non usa IA generativa, è un vecchio programma.

Anche io non credo che GPT abbia generato i risultati corretti per i Promessi sposi e lo Zibaldone: li vogliamo vedere e vogliamo riprodurre l'analisi 😁 (per i Promessi sposi lo avevo fatto, per li Zibaldone no). 
A noi piace il metodo scientifico.
Se GPT li genera, vuol dire che sono già stati pubblicati. 
 
Buon sabato,
Andrea 

Il giorno sab 19 apr 2025 alle 07:10 Guido Vetere <vetere.guido@gmail.com> ha scritto:
I Language model sono notoriamente dissociati (Mahowald et al, 2023, Dissociating language and thought in large language models, https://arxiv.org/abs/2301.06627) e in difficoltà con i conteggi. Fino a qualche tempo fa sbagliavano perfino a contare le occorrenze di una lettera in una frase, figuriamoci le parole nelle canzoni di Jovanotti. Questo accade perché, come ormai sappiamo tutti, la loro capacità di base è quella di predire il prossimo token, il resto viene dalle successive 'istruzioni'. Non ho dubbi che sistemi capaci di 'ragionare' (so to say) su ampi contesti saranno istruiti a fare quello che si faceva cinquant'anni fa con i primi lemmatizzatori (il lessico di frequenza di De Mauro è fatto con IBM a Pisa negli anni '70).
Questo significa che un giorno li potremo considerare 'oracoli'? Certo che no. Tuttavia, per citare un aneddoto personale, senza GPT4 ieri non me la sarei cavata facilmente con un problema di configurazione del mio laptop. Né avrei avuto tempo e voglia di andare a compulsare manuali. Che mi importa se non sa contare le parole di Jovanotti? (lo capisco pure, eh, che palle!)
Morale: dovremo imparare a usare questi sistemi in modo tattico e con le dovute cautele. La sfida portata dall'IA generativa è epistemica, più che etica.

G.
 




On Fri, 18 Apr 2025 at 23:46, Giacomo Tesio <giacomo@tesio.it> wrote:
Caro Marco Anselmo Giovanni (;-D)

Francamente preferirei di gran lunga usare un pace-maker programmato da
GitHub CopyALot che debuggarne il codice.

Molto meno doloroso. :-p


Giacomo


Il 18 Aprile 2025 17:00:18 UTC, "Marco A. Calamari" ha scritto:
>
> Tu saresti contenta di sapere, dopo avermi dato l'incarico di
> progettare la tua
>  nuova casa ed esserci entrata, di sapere che avevo fatto i calcoli
> del 
>  cemento armato con ChatGPT, e li avevo revisionati con la mia
> professionalità?
>
> Oppure, chessò, se mi fossi messo a fare il programmatore, che era
>  la mia passione da piccolo, che avevo programmato il software del tuo
>  pace-maker facendo vibe-coding con Copilot?
>
> [...] Qualsiasi professionista che usi un LLM
>  come oracolo (in questa lista non credo serva spiegare la frase) 
>  appartiene ad una di queste due categorie.
>
> 1) non ha la più pallida idea di cosa sia e come funzioni un LLM,
>  e lo usa per comodità e produttività scaricando i rischi di questa
>  scelta sul cliente.
>
> 2) sa cosa è e come funziona un LLM, ma lo usa lo stesso per comodità
>  e produttività, scaricando i rischi di questa scelta sul cliente.
>
> Io personalmente non vorrei affidarmi a nessuno dei due.