Con rispetto parlando, non ritengo sia utile a nessuno rispondere ad argomentazioni che reputo fantagiuridiche e fantainformatiche.
Fabio
Ciao Fabio,
Il 16 Luglio 2023 12:21:32 UTC, Fabio Alemagna <falemagn@gmail.com> ha scritto:
>Il giorno dom 16 lug 2023 alle ore 12:39 Giacomo Tesio
><giacomo@tesio.it> ha scritto:
>> > se io mettessi online un generatore di
>> > frasi casuali, ma di senso compiuto, che prendessero spunto
>> > dall'input dell'utente, e se l'input dell'utente fosse il nome e
>> > cognome di una persona esistente, e se il software generasse,
>> > casualmente, frasi potenzialmente diffamatorie per quella persona
>> > [...] il responsabile dell'eventuale diffamazione sarei io
>>
>> Certo!
>>
>> Se sul tuo sito compaiono frasi diffamatorie il responsabile di tale
>> diffamazione sei ovviamente tu!
>
>Se sul "mio sito" *qualcun altro* mette il nome e cognome di qualcuno,
>se quel nome e cognome neanche esistono all'interno del data base che
>quel sito utilizza, non posso IO essere responsabile.
Non saresti responsabile se il software che hai scritto, a fronte di una richiesta relativa ad una
persona non presente sul tuo database rispondesse sempre: "non dispongo di infornazioni sull'argomento richiesto".
Se invece fornisce un output che una mente umana interpreta come informazione,
alloravdi quell'output DEVI ovviamente rispondere.
E la ragione è semplicissima: il tuo software automatizza ciò che faresti tu.
Nel caso di un chatbot è evidente: se il sito permettesse di chattare con te e tu
diffamassi qualcuno, ne dovresti rispondere.
Se bastasse (dichiarare di) aver usato un automatismo per non rispondere di un reato
avremmo una abrogazione di fatto del diritto penale.
>> Vuoi illuminarci su ciò che a tuo parere non comprendiamo?
>
>Da nessuna parte esiste "Giacomo Desio" nella rete neurale di un LLM.
>Quello è un input fornito dall'utente, che fa partire un'inferenza,
>che produce un output che potrà a sua volta contenere contenere
>quell'input *fornito dall'utente*.
E davvero credi che qualcuni non l'abbia capito?
L'utente è responsabile per ciò che scrive (l'input).
Ma poiché non scrive il software che elabora tale e non ne pubblica l'output, non può
essere considerato in alcun modo responsabile di tale output.
Le responsabilità sono chiarissime e ben ripartite.
> Ciò avviene sulla base di un
>algoritmo che tenta di prevedere quale "token" (tipicamente una
>sillaba) è più probabile che segua i token forniti in precedenza
>dall'utente e quelli generati dall'algoritmo stesso, sulla base dei
>*pattern* che sono stati estratti dai testi su cui la rete neurale è
>stata istruita, con un pizzico di randomness aggiunta.
Dettagli implementativi _irrilevanti_, peraltro spiegati in modo piuttosto confuso.
Ad esempio la programmazione statistica non "estrae pattern" ma produce un software che
riproduce _possibili_ correlazioni statistiche presenti nell'input, senza comprenderne
la rilevanza, il significato o le relazioni.
Correlazioni che da un lato possono essere del tutto casuali e dall'altro possono essere imposte
dai programmatori selezionando i dati da utilizzare durante la programmazione statistica.
>A seconda di quanto corretti e quanti fossero i dati su cui la rete
>neurale è stata istruita, il risultato sarà più o meno accurato in
>termini di lessico e esattezza.
>
>L'esattezza non è garantita, è solo più o meno probabile.
Not even wrong.
L'output non può essere "giusto" o "sbagiato" se non ha un significato.
Se ha un significato, tale significato presuppone almeno un agente che voglia comunicarlo
esprimendolo attraverso un significante costituito da simboli.
In questo caso l'agente in questione è costituito dalle persone che hanno realizzato e mantengono operativo ChatGPT che è una loro espressione, ovvero OpenAI.
Tutto ciò che ChatGPT "scrive" è scritto per volontà di queste persone: senza il loro lavoro,
il loro hardware e la corrente che pagano, non scriverebbe alcunché.
Il fatto che l'output prodotto sia interpretabile da un essere umano come vero ("esatto") o
falso ("inesatto") è prova di questa volontà comunicativa di OpenAI e dunque della sua responsabilità.
Se non vuole assumersi la responsabilità del significato attribuibile all'output del proprio
software, OpenAI ha una sola cosa da fare: spegnerlo.
>In ogni caso, l'output dipende dall'input, e l'input lo ha fornito l'utente.
In misura trascurabile.
L'output di un software è sempre determinato da 3 fattori:
- input
- stato iniziale
- struttura logica del software
Se volessimo attribuire responsabilità sulla base dell'impatto di ciascun componente sull'output, dovremmo misurare i bit di entropia dell'input, quelli dello stato iniziale (i pesi delle varie matrici, le relazioni fra i diversi token etc... quello che banalizzando hai definito il "database") e i bit di entropia impressi nel software nella sua interezza.
Come penso anche tu possa intuire se sai anche solo vagamente di cosa stiamo parlando,
il peso percentuale dell'input è dell'ordine di 0,00...01
Naturalmente questa attribuzione di responsabilità sarebbe comunque irrazionale ed ingiusta:
nessuno costringe OpenAI a includere parti dell'input nell'output, per cui deve rispondere
ANCHE di tale inclusione.
La responsabilità dell'output di ChatGPT è dunque totalmente di OpenAI.
>Ho già più volte documentato come in molti casi interpretati come
>"diffamazione" da qualcuno, in realtà ChatGPT neanche sapeva chi fosse
>la persona
Hai scoperto l'acqua calda, Fabio.
ChatGPT non sa nulla! ;-)
OpenAI (che si legge Microsoft) invece sa molto bene come farti credere il contrario.
Giacomo