altro esperimento mentale, della serie: "se voi foste il giudice" (valida alternativa alle parole crociate sulla settimana enigmistica)

la signora di Chester, alla sbarra per istigazione all'odio sul web, dice al giudice che la bufala sul musulmano clandestino gliel'aveva raccontata suo cugino al telefono.

quesiti: si potrebbe trattare di una attenuante? in tal caso, sarebbe ancora un'attenuante se la signora fosse stata al corrente che il cugino è un paranoico? infine: bisognerebbe incriminare anche il cugino?

se io fossi il giudice, direi di no: il crimine non consiste nel dare credito a una affermazione non verificata (altrimenti staremmo tutti in galera), e neanche raccontare balle al telefono. il crimine consiste nel diffondere attraverso mezzi di comunicazione di massa notizie non verificate che possono fomentare la violenza. la paranoia conclamata del cugino non rileva. (i legali mi correggano)

fuor di metafora: l'idea che i LLM debbano essere per legge tenuti alla veridicità è da una parte ingenua (veridicità secondo quale episteme? ah saperlo!), dall'altra inutile: la decisione cruciale riguarda come usare l'AI generativa, ed è una decisione tutta umana. pensare il contrario significa abbracciare una visione pericolosamente tecno-positivista del problema etico della conoscenza, ben noto fin dai tempi antichi.

buona domenica!
G.









On Sat, 10 Aug 2024 at 17:59, Giacomo Tesio <giacomo@tesio.it> wrote:
Salve Guido,

Il 10 Agosto 2024 08:36:32 UTC, Guido Vetere <vetere.guido@gmail.com> ha scritto:
> Ora un esperimento mentale: si scopre che la mentitrice ha generato il
> falso per mezzo di un LLM.
> Quesito: potrà usare questa circostanza a sua, sia pur parziale, discolpa?

Dipende.

Era consapevole di come funziona un LLM?
Era consapevole della falsità dell'interpretazione che gli altri avrebbero attribuito alla
sequenza di caratteri calcolati dal
software?

Se no, non si potrebbe attribuirgli alcuna responsabilità, che sarebbe SOLO di coloro
che le hanno fornito accesso al LLM in questione.

Se sì, la responsabilità delle conseguenze della diffusione di tale output ricadrebbe
anche su di lei.

> Se sì, bisognerà dare ragione ai ricercatori di Oxford, altrimenti avranno
> ricercato invano.

Non sequitur: i ricercatori di Oxford possono aver "ricercato invano" anche se la
la tua ipotetica signora fosse vittima della malafede di chi realizza e promuove
come "intelligenze artificiali" questi software programmati statisticamente.

Non si tratta di istituire "verità" da imporre ai software (o meglio, tramite i software).
Si tratta semplicemente di individuare i responsabili, senza permettere
a nessuno di nascondersi dietro un software, che si chiami Twitter o ChatGPT.

Che si tratti della 56 enne arrestata a Chester, di Musk. di Altman, di Bankman-Fried...


Giacomo