Ciao Fabio, Il 16 Luglio 2023 12:21:32 UTC, Fabio Alemagna <falemagn@gmail.com> ha scritto:
Il giorno dom 16 lug 2023 alle ore 12:39 Giacomo Tesio <giacomo@tesio.it> ha scritto:
se io mettessi online un generatore di frasi casuali, ma di senso compiuto, che prendessero spunto dall'input dell'utente, e se l'input dell'utente fosse il nome e cognome di una persona esistente, e se il software generasse, casualmente, frasi potenzialmente diffamatorie per quella persona [...] il responsabile dell'eventuale diffamazione sarei io
Certo!
Se sul tuo sito compaiono frasi diffamatorie il responsabile di tale diffamazione sei ovviamente tu!
Se sul "mio sito" *qualcun altro* mette il nome e cognome di qualcuno, se quel nome e cognome neanche esistono all'interno del data base che quel sito utilizza, non posso IO essere responsabile.
Non saresti responsabile se il software che hai scritto, a fronte di una richiesta relativa ad una persona non presente sul tuo database rispondesse sempre: "non dispongo di infornazioni sull'argomento richiesto". Se invece fornisce un output che una mente umana interpreta come informazione, alloravdi quell'output DEVI ovviamente rispondere. E la ragione è semplicissima: il tuo software automatizza ciò che faresti tu. Nel caso di un chatbot è evidente: se il sito permettesse di chattare con te e tu diffamassi qualcuno, ne dovresti rispondere. Se bastasse (dichiarare di) aver usato un automatismo per non rispondere di un reato avremmo una abrogazione di fatto del diritto penale.
Vuoi illuminarci su ciò che a tuo parere non comprendiamo?
Da nessuna parte esiste "Giacomo Desio" nella rete neurale di un LLM. Quello è un input fornito dall'utente, che fa partire un'inferenza, che produce un output che potrà a sua volta contenere contenere quell'input *fornito dall'utente*.
E davvero credi che qualcuni non l'abbia capito? L'utente è responsabile per ciò che scrive (l'input). Ma poiché non scrive il software che elabora tale e non ne pubblica l'output, non può essere considerato in alcun modo responsabile di tale output. Le responsabilità sono chiarissime e ben ripartite.
Ciò avviene sulla base di un algoritmo che tenta di prevedere quale "token" (tipicamente una sillaba) è più probabile che segua i token forniti in precedenza dall'utente e quelli generati dall'algoritmo stesso, sulla base dei *pattern* che sono stati estratti dai testi su cui la rete neurale è stata istruita, con un pizzico di randomness aggiunta.
Dettagli implementativi _irrilevanti_, peraltro spiegati in modo piuttosto confuso. Ad esempio la programmazione statistica non "estrae pattern" ma produce un software che riproduce _possibili_ correlazioni statistiche presenti nell'input, senza comprenderne la rilevanza, il significato o le relazioni. Correlazioni che da un lato possono essere del tutto casuali e dall'altro possono essere imposte dai programmatori selezionando i dati da utilizzare durante la programmazione statistica.
A seconda di quanto corretti e quanti fossero i dati su cui la rete neurale è stata istruita, il risultato sarà più o meno accurato in termini di lessico e esattezza.
L'esattezza non è garantita, è solo più o meno probabile.
Not even wrong. L'output non può essere "giusto" o "sbagiato" se non ha un significato. Se ha un significato, tale significato presuppone almeno un agente che voglia comunicarlo esprimendolo attraverso un significante costituito da simboli. In questo caso l'agente in questione è costituito dalle persone che hanno realizzato e mantengono operativo ChatGPT che è una loro espressione, ovvero OpenAI. Tutto ciò che ChatGPT "scrive" è scritto per volontà di queste persone: senza il loro lavoro, il loro hardware e la corrente che pagano, non scriverebbe alcunché. Il fatto che l'output prodotto sia interpretabile da un essere umano come vero ("esatto") o falso ("inesatto") è prova di questa volontà comunicativa di OpenAI e dunque della sua responsabilità. Se non vuole assumersi la responsabilità del significato attribuibile all'output del proprio software, OpenAI ha una sola cosa da fare: spegnerlo.
In ogni caso, l'output dipende dall'input, e l'input lo ha fornito l'utente.
In misura trascurabile. L'output di un software è sempre determinato da 3 fattori: - input - stato iniziale - struttura logica del software Se volessimo attribuire responsabilità sulla base dell'impatto di ciascun componente sull'output, dovremmo misurare i bit di entropia dell'input, quelli dello stato iniziale (i pesi delle varie matrici, le relazioni fra i diversi token etc... quello che banalizzando hai definito il "database") e i bit di entropia impressi nel software nella sua interezza. Come penso anche tu possa intuire se sai anche solo vagamente di cosa stiamo parlando, il peso percentuale dell'input è dell'ordine di 0,00...01 Naturalmente questa attribuzione di responsabilità sarebbe comunque irrazionale ed ingiusta: nessuno costringe OpenAI a includere parti dell'input nell'output, per cui deve rispondere ANCHE di tale inclusione. La responsabilità dell'output di ChatGPT è dunque totalmente di OpenAI.
Ho già più volte documentato come in molti casi interpretati come "diffamazione" da qualcuno, in realtà ChatGPT neanche sapeva chi fosse la persona
Hai scoperto l'acqua calda, Fabio. ChatGPT non sa nulla! ;-) OpenAI (che si legge Microsoft) invece sa molto bene come farti credere il contrario. Giacomo