Come ha già detto Quintarelli parlando di "scala, velocità e rimedio", il punto credo sia non la veridicità ma le conseguenze, la scala, gli scopi della diffusione, e soprattutto l'assunzione di responsabilità di chi diffonde affermazioni.

Se un influencer con zilioni di follower dice che il suo unicorno ha la gotta, o che la terra è piatta, nessuno lo porterà in tribunale.

Se lo stesso diffonde notizie false che scatenano un pogrom, sì, e giustamente, specie se si può dimostrare che lo scopo era proprio quello.

Se la stessa notizia falsa e pericolosa la diffonde uno che ha tre follower, nessuno dei quali fa nulla, nessuno si prenderà la briga di perseguirlo.

Se il mega influencer diffonde notizie -anche vere- che hanno conseguenze per terzi dovrà essere in grado di dimostrarne la fondatezza, forse anche in tribunale se questi si ritengono lesi o diffamati; quindi: conseguenze.
Che abbia preso le notizie dal blog di suo cugino, da un motore di ricerca, da un oroscopo o da un LLM poco conta.

Questo per quanto riguarda le persone: ci sia aspetta che un umano sia in grado di rispondere delle conseguenze del proprio output, e della veridicità solo in conseguenza.
I software al contrario vantano uno statuto di sostanziale irresponsabilità sancito consuetudianariamente dai terms of use, per cui la responsabilità dell'uso del loro output cade su chi li usa e non su chi produce il software.

Il problema con gli LLM (condiviso con i social) è che sono emanazione di società che usano software per produrre/diffondere affermazioni: (1) per lucro,  (2) massimizzando la scala di diffusione industrialmente e (3) minimizzando la propria responsabilità, estendendo a proprio vantaggio l'irresponsabilità del software.

Come per i social, non è irragionevole che un business che lucra sulla diffusione di affermazioni si assuma la responsabilità sulle conseguenze della diffusione delle stesse, considerando la diffusione di notizie false non tanto per la loro falsità, quanto per la scala e le potenziali conseguenze della loro diffusione. Ed eventualmente per il sussistere di scopi criminosi, ai quali incita terzi.

Ma per favore non diciamo che il tal LLM o il tal social (o internet o il web) dice questo o quello.
Quello che viene detto viene detto o da persone o da imprese, che antropomorfizzano un software irresponsabile per non assumersi la responsabilità delle conseguenze del potere che hanno grazie a tal software. E che vendono.

Buona domenica.

Alberto


On 11/08/24 09:12, Guido Vetere wrote:
altro esperimento mentale, della serie: "se voi foste il giudice" (valida alternativa alle parole crociate sulla settimana enigmistica)

la signora di Chester, alla sbarra per istigazione all'odio sul web, dice al giudice che la bufala sul musulmano clandestino gliel'aveva raccontata suo cugino al telefono.

quesiti: si potrebbe trattare di una attenuante? in tal caso, sarebbe ancora un'attenuante se la signora fosse stata al corrente che il cugino è un paranoico? infine: bisognerebbe incriminare anche il cugino?

se io fossi il giudice, direi di no: il crimine non consiste nel dare credito a una affermazione non verificata (altrimenti staremmo tutti in galera), e neanche raccontare balle al telefono. il crimine consiste nel diffondere attraverso mezzi di comunicazione di massa notizie non verificate che possono fomentare la violenza. la paranoia conclamata del cugino non rileva. (i legali mi correggano)

fuor di metafora: l'idea che i LLM debbano essere per legge tenuti alla veridicità è da una parte ingenua (veridicità secondo quale episteme? ah saperlo!), dall'altra inutile: la decisione cruciale riguarda come usare l'AI generativa, ed è una decisione tutta umana. pensare il contrario significa abbracciare una visione pericolosamente tecno-positivista del problema etico della conoscenza, ben noto fin dai tempi antichi.

buona domenica!
G.









On Sat, 10 Aug 2024 at 17:59, Giacomo Tesio <giacomo@tesio.it> wrote:
Salve Guido,

Il 10 Agosto 2024 08:36:32 UTC, Guido Vetere <vetere.guido@gmail.com> ha scritto:
> Ora un esperimento mentale: si scopre che la mentitrice ha generato il
> falso per mezzo di un LLM.
> Quesito: potrà usare questa circostanza a sua, sia pur parziale, discolpa?

Dipende.

Era consapevole di come funziona un LLM?
Era consapevole della falsità dell'interpretazione che gli altri avrebbero attribuito alla
sequenza di caratteri calcolati dal
software?

Se no, non si potrebbe attribuirgli alcuna responsabilità, che sarebbe SOLO di coloro
che le hanno fornito accesso al LLM in questione.

Se sì, la responsabilità delle conseguenze della diffusione di tale output ricadrebbe
anche su di lei.

> Se sì, bisognerà dare ragione ai ricercatori di Oxford, altrimenti avranno
> ricercato invano.

Non sequitur: i ricercatori di Oxford possono aver "ricercato invano" anche se la
la tua ipotetica signora fosse vittima della malafede di chi realizza e promuove
come "intelligenze artificiali" questi software programmati statisticamente.

Non si tratta di istituire "verità" da imporre ai software (o meglio, tramite i software).
Si tratta semplicemente di individuare i responsabili, senza permettere
a nessuno di nascondersi dietro un software, che si chiami Twitter o ChatGPT.

Che si tratti della 56 enne arrestata a Chester, di Musk. di Altman, di Bankman-Fried...


Giacomo