Salve Guido, Il 10 Agosto 2024 08:36:32 UTC, Guido Vetere <vetere.guido@gmail.com> ha scritto:
Ora un esperimento mentale: si scopre che la mentitrice ha generato il falso per mezzo di un LLM. Quesito: potrà usare questa circostanza a sua, sia pur parziale, discolpa?
Dipende. Era consapevole di come funziona un LLM? Era consapevole della falsità dell'interpretazione che gli altri avrebbero attribuito alla sequenza di caratteri calcolati dal software? Se no, non si potrebbe attribuirgli alcuna responsabilità, che sarebbe SOLO di coloro che le hanno fornito accesso al LLM in questione. Se sì, la responsabilità delle conseguenze della diffusione di tale output ricadrebbe anche su di lei.
Se sì, bisognerà dare ragione ai ricercatori di Oxford, altrimenti avranno ricercato invano.
Non sequitur: i ricercatori di Oxford possono aver "ricercato invano" anche se la la tua ipotetica signora fosse vittima della malafede di chi realizza e promuove come "intelligenze artificiali" questi software programmati statisticamente. Non si tratta di istituire "verità" da imporre ai software (o meglio, tramite i software). Si tratta semplicemente di individuare i responsabili, senza permettere a nessuno di nascondersi dietro un software, che si chiami Twitter o ChatGPT. Che si tratti della 56 enne arrestata a Chester, di Musk. di Altman, di Bankman-Fried... Giacomo