Buongiorno Gianluca, grazie per il tuo contributo che ci aiuta ad affrontare l'argomento ""diritto e linguaggio"". Il diritto "è" linguaggio. Senza linguaggio, il diritto è arbitrio. - Oggi, di fatto la regola non viene approvata dal legislatore ma è imposta da privati - i famigerati GAFAM - i quali la ""stanno conquistando con la forza"", e non raramente il legislatore impone l'uso dei GAFAM senza neppure rendersi conto di imporre l'uso di un ""linguaggio"" sconosciuto allo stesso legislatore: quali risultati darebbe un test di competenze informatiche per ogni legislatore? Vero è che la Costituzione non si occupa di lingua, ma credo la consideri come presupposto tanto ovvio da non meritare attenzione. Quanta parte di noi ""parlanti la lingua nazionale"" conosce il digitale? Questa ignoranza ha conseguenze oppure no? Quelle di cui sopra sono questioni ""filosofiche"" oppure concrete? - In concreto: quale modello normativo? Il minimo è dichiarare esplicitamente, pretendere che ogni ""programma"" sia to-tal-men-te aperto, conoscibile, qui taccio e chiedo il contributo di tecnici. Le stesse regole AIR e VIR (A-analisi / V-valutazione impatto della regolamentazione) presuppongono la conoscenza della lingua naturale, anche da qui il corollario sintetizzabile con "" alfabetizzazione digitale "". - Torno un attimo alla filosofia per ricordare che noi umani siamo oggi così dopo avere accumulato centinaia di migliaia di anni: quante ore/lavoro/uomo per arrivare qui? Quante ore/lavoro/uomo del digitale? Continuando a prestare attenzione alla velocità con la quale il digitale progredisce. Nessuna critica al tuo lavoro, ma affermazione della necessità di una cornice generale per l'argomento, in proposito copio la nota 39 del tuo articolo: "" Frosini (ndr: costituzionalista - inoltre è mio il grassetto che segue) evidenziava come l’informatica avesse determinato una *vera mutazione antropologica*: “Dialogare attraverso le macchine, o con le macchine stesse, non è la stessa cosa di conversare a viva voce: *si adopera una protesi intellettuale, che modifica il procedimento del conoscere e del comunicare*. L’uomo è divenuto essenzialmente diverso da quello che è stato in tutti i tempi, e non potrebbe tornare indietro senza perdere la sua nuova umanità, che gli è stata conferita dalla cultura informatica di massa” "". Complimenti per il tuo impegno e grazie per l'opportunità, Duccio (Alessandro Marzocchi) Il giorno mer 8 mag 2024 alle ore 09:23 <nexa-request@server-nexa.polito.it> ha scritto:
Message: 2 Date: Wed, 8 May 2024 09:23:32 +0200 From: Gianluca Fasano <gianluca.fasano@cnr.it> To: Guido Vetere <vetere.guido@gmail.com>, alessandro marzocchi <alemarzoc@gmail.com> Cc: nexa@server-nexa.polito.it Subject: Re: [nexa] Articolo sui LLMs - il punto di vista di un giurista Message-ID: <e4201d9b-a1d4-4bce-a539-29d046e4091d@cnr.it> Content-Type: text/plain; charset="utf-8"; Format="flowed" Grazie per il feedback e soprattutto per la domanda. Non so dire se le parole abbiano, sul piano filosofico, un peso forte o debole ma da osservatore del fenomeno, nella prospettiva del diritto, considero il linguaggio uno dei modi di espressione del pensiero. Per dirla con le parole di Carlo Esposito, le parole appartengono ad una relazione, ove la libertà è garantita «perché l’uomo possa unirsi all’altro uomo nel pensiero…: i vivi con i vivi ed i morti con i vivi..».
Non ritengo, sia detto a evitare equivoci, che la macchina eserciti un diritto di libertà ma, egualmente all’esercizio della libertà di espressione dei vivi, ad essa deve corrispondere l’assunzione di doveri e responsabilità. Non tanto in termini di qualità, veridicità e correttezza delle informazioni sintetizzate, ma sulla base di nuovi modelli di autorialità connessi alla creazione di ‘informazioni sintetizzate’.
Detto altrimenti, al di là del quesito prettamente epistemologico circa la creatività, originalità o capacità di apprendimento dei LLM, non v’è dubbio che essi, pur non esprimendo un pensiero, producano informazioni testuali indirizzate alle persone, che sono portate a realizzare una similitudine tra pensiero umano e informazioni sintetizzate, sono portate a vivere una suggestione che può incidere, con differenti gradazioni, sulla libertà di formare i propri convincimenti interiori e di conseguentemente agire (diritto all'informazione).
Cosa deve fare il legislatore?
Non penso debba 'impegnarsi filosoficamente' ma occorre prendere atto che la tecnologia, cioè l'uomo, ha disunito la capacità di comprendere dalla capacità di produrre informazioni sintetizzate, ha creato autori senza persona, senza libertà ma che, nei fatti, simulano (fingono) l’esercizio di quella. Abbiamo il compito, adesso, di individuare modelli normativi per gestire le responsabilità derivanti da questi nuovi modelli di autorialità, e superare lo scarto culturale che vede il concetto di autorialità legato alla sola categoria persona, un individuo che crea o origina qualcosa, come un libro, un dipinto, una musica, una teoria o qualsiasi altra forma di espressione artistica o intellettuale.
Grazie ancora e buona giornata.
Gianluca Fasano
Il 07/05/2024 18:42, Guido Vetere ha scritto:
Wittgenstein ha notoriamente definito linguaggio come una 'cassetta degli attrezzi' con cui si possono fare 'giochi' che vanno dalle serissime denotazioni alle frivole 'boutade', in contesti diversi e con gli scopi più vari. mi rendo conto dei motivi per cui la legislazione attuale si attiene a una visione 'robusta' dell'esercizio della parola, però oggi abbiamo a che fare con 'intelligenze aliene' che parlano basandosi su presupposti del tutto inediti. la legge, comprensibilmente, fatica a inquadrarli. personalmente, condivido l'idea che l'umano che mette in esercizio un llm debba assumersi la responsabilità di quello che dice come se fosse egli stesso a parlare diversa (e tecnicamente insipiente) è l'idea che il modello linguistico debba inerentemente garantire veridicità, correttezza, eccetera. cosa possiamo accettare come *prova* di queste inerenti capacità? la certificazione del processo di costruzione? suvvia .. purtroppo mi sembra di ravvisare un orientamento di questo tipo nell'AI Act, ma potrei sbagliare, mi smentisca chi può :-) G.
On Tue, 7 May 2024 at 14:51, alessandro marzocchi <alemarzoc@gmail.com> wrote:
A mio parere sono “”VERE”” entrambe le opinioni che operano su piani differenti. La parola non esiste in natura, è un flatus vocis umano. Però … gli umani usano le parole per descrivere / indicare / interpretare / raccontare la natura ed i “”fatti”” degli stessi umani. I problemi cominciano quando lenta mente noi umani abbiamo cominciato a SOSTITUIRE LA REALTA' con le nostre parole, dando alle stesse una forza che non hanno, meglio: cominciando a dar loro forza crescente fino ad illuderci / pretendere che abbiano forza autonoma (autòs nomos, che si regola da sè) non dipendente da / non collegata a la natura. Credo Gianluca faccia riferimento alle cosiddette preleggi - disposizioni sulla legge in generale / disposizioni preliminari al codice civile -: all’art 12 danno per acquisito il potere di regolare i fatti umani ed affermano un principio a mio avviso corretto e semplice “” Nell'applicare la legge non si può ad essa attribuire altro senso che quello fatto palese dal significato proprio delle parole secondo la connessione di esse, e dalla intenzione del legislatore. “” Mia opinione: il dibattito sull’IA è su questo punto, in sostanza l'IA non seleziona le parole per il loro senso comune? Cioè la macchina fa quello che l'art 12 preleggi prescrive, meglio: indica come criterio interpretativo? Al centro sta il confronto uomo e macchina, riaprendo domande fondamentali, fra le quali la questione se siamo davvero non ripetibili, questione che un tempo vedeva la sede dell’umanità nel ““cuore”” ed ora la vede in “”mente / intelligenza”” le quali hanno origine da parola, linguaggio e quest’ultimo si basa su significati accettati dalla maggioranza. Ricordo l’opinione contraria di Guido e riconosco che la sua autorevolezza, giustamente riconosciuta, mi scuso se vi faccio perder tempo. Cordialmente. Duccio (Alessandro Marzocchi)
Il giorno mar 7 mag 2024 alle ore 10:48 <nexa-request@server-nexa.polito.it> ha scritto:
Date: Tue, 7 May 2024 10:47:57 +0200 From: Guido Vetere <vetere.guido@gmail.com> To: Gianluca Fasano <gianluca.fasano@cnr.it> ottimo articolo, grazie per la condivisione, consiglio a tutte [femminile sovraesteso] di prendersi una mezz'ora per leggerlo da cima a fondo - vi vedo che state facendo summarization :-)) una piccola chiosa profana:
> le associazioni di parole prodotte [dai language model] > implicano un significato per i destinatari, un significato fatto palese dal senso > comune delle parole, secondo il linguaggio naturale, che va a influire sulla libertà > di formazione del pensiero; implicano un significato che va a incidere sulla libertà > di raccogliere le informazioni, di informarsi, su quella che viene indicata come il > profilo passivo della libertà di informazione
qui mi sembra che si assuma una posizione 'forte' (realistica) nei confronti del linguaggio, ma c'è chi ha sostenuto posizioni 'deboli' (nominalistiche) per le quali, per dirla con Roscellino, le parole sono solo 'emissioni della voce' (flatus vocis).
domanda: fino a dove il legislatore può impegnarsi filosoficamente? e perché, anche abbracciando il realismo, non ci soddisfa il 'disclaimer' di OpenAI che recita (molto piccolo, ma vabbè): "ChatGPT può commettere errori. Ti consigliamo di verificare le informazioni importanti." ? grazie ancora e buona giornata G.
On Mon, 6 May 2024 at 17:18, Gianluca Fasano <gianluca.fasano@cnr.it> wrote: > Buon pomeriggio, > colgo l'occasione degli ultimi scambi sui LLMs per segnalarvi un mio > articolo pubblicato su Dirittifondamentali.it [1], dal titolo: > *Le ‘informazioni sintetizzate’ generate dai large language models e le > esigenze di tutela del diritto all’informazione*: valori costituzionali e > nuove regole > Cordiali saluti. > Gianluca > [1] >
http://dirittifondamentali.it/2024/02/06/le-informazioni-sintetizzate-genera...