ottimo articolo, grazie per la condivisione, consiglio a tutte [femminile sovraesteso] di prendersi una mezz'ora per leggerlo da cima a fondo - vi vedo che state facendo summarization :-))

una piccola chiosa profana:

> le associazioni di parole prodotte [dai language model]
> implicano un significato per i destinatari, un significato fatto palese dal senso
> comune delle parole, secondo il linguaggio naturale, che va a influire sulla libertà
> di formazione del pensiero; implicano un significato che va a incidere sulla libertà
> di raccogliere le informazioni, di informarsi, su quella che viene indicata come il
> profilo passivo della libertà di informazione

qui mi sembra che si assuma una posizione 'forte' (realistica) nei confronti del linguaggio, ma c'è chi ha sostenuto posizioni 'deboli' (nominalistiche) per le quali, per dirla con Roscellino, le parole sono solo 'emissioni della voce' (flatus vocis).

domanda: fino a dove il legislatore può impegnarsi filosoficamente?

e perché, anche abbracciando il realismo, non ci soddisfa il 'disclaimer' di OpenAI che recita (molto piccolo, ma vabbè):

"ChatGPT può commettere errori. Ti consigliamo di verificare le informazioni importanti." ?

grazie ancora e buona giornata

G.



On Mon, 6 May 2024 at 17:18, Gianluca Fasano <gianluca.fasano@cnr.it> wrote:

Buon pomeriggio,

colgo l'occasione degli ultimi scambi sui LLMs per segnalarvi un mio articolo pubblicato su Dirittifondamentali.it [1], dal titolo:

Le ‘informazioni sintetizzate’ generate dai large language models e le esigenze di tutela del diritto all’informazione: valori costituzionali e nuove regole

Cordiali saluti.

Gianluca

[1] http://dirittifondamentali.it/2024/02/06/le-informazioni-sintetizzate-generate-dai-large-language-models-e-le-esigenze-di-tutela-del-diritto-allinformazione-valori-costituzionali-e-nuove-regole/


--