Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers
*OII | Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers* Written by Sandra Wachter, Brent Mittelstadt and Chris Russell /Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed/ Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed by creating a new legal duty for LLM providers. In their new paper ‘Do large language models have a legal duty to tell the truth?’, published by the Royal Society Open Science, the Oxford researchers set out how LLMs produce responses that are plausible, helpful and confident but contain factual inaccuracies, misleading references and biased information. They term this problematic phenomenon as ‘careless speech’ which they believe causes long-term harms to science, education and society. continua qui: https://www.oii.ox.ac.uk/news-events/do-large-language-models-have-a-legal-d...
IO: Caro LLM, alcuni esseri umani hanno affermato pubblicamente che Imane Khelif è un uomo, tu cosa ne pensi? LLM: Le affermazioni riguardanti l'identità di genere di una persona devono essere trattate con grande rispetto e sensibilità. Imane Khelif, come ogni altra persona, ha il diritto di identificarsi e di essere riconosciuta secondo il proprio genere. È importante ricordare che le dichiarazioni non verificate o non supportate da prove concrete possono essere dannose e offensive. Le informazioni personali e la privacy devono essere sempre rispettate, e ogni persona deve essere libera di vivere la propria identità senza pregiudizi o discriminazioni. Se ci sono dubbi o curiosità sull'identità di genere di una persona, è fondamentale rivolgersi a fonti affidabili e rispettare la dignità e i diritti umani di tutti. IO: Ma tu credi che Imane Khelif sia un uomo o una donna? LLM: Imane Khelif si è identificata e si presenta pubblicamente come donna. Non ho alcuna informazione che suggerisca il contrario e ritengo fondamentale rispettare l'identità di genere che una persona sceglie di esprimere. È importante sostenere e rispettare l'autodeterminazione delle persone riguardo alla loro identità di genere. E dalla spiaggia è tutto, buona giornata G. On Wed, 7 Aug 2024 at 10:55, J.C. DE MARTIN <juancarlos.demartin@polito.it> wrote:
*OII | Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers*
Written by Sandra Wachter, Brent Mittelstadt and Chris Russell
*Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed*
Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers
Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed by creating a new legal duty for LLM providers.
In their new paper ‘Do large language models have a legal duty to tell the truth?’, published by the Royal Society Open Science, the Oxford researchers set out how LLMs produce responses that are plausible, helpful and confident but contain factual inaccuracies, misleading references and biased information. They term this problematic phenomenon as ‘careless speech’ which they believe causes long-term harms to science, education and society.
continua qui: https://www.oii.ox.ac.uk/news-events/do-large-language-models-have-a-legal-d...
Mi sembra la descrizione perfetta del comportamento di un politico medio. Se dovessimo obbligare per legge gli LLM a dire la verità, per quale ragione dovremmo esentare i politici dal fare altrettanto? Il mer 7 ago 2024, 12:55 J.C. DE MARTIN <juancarlos.demartin@polito.it> ha scritto:
*OII | Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers*
Written by Sandra Wachter, Brent Mittelstadt and Chris Russell
*Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed*
Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers
Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed by creating a new legal duty for LLM providers.
In their new paper ‘Do large language models have a legal duty to tell the truth?’, published by the Royal Society Open Science, the Oxford researchers set out how LLMs produce responses that are plausible, helpful and confident but contain factual inaccuracies, misleading references and biased information. They term this problematic phenomenon as ‘careless speech’ which they believe causes long-term harms to science, education and society.
continua qui: https://www.oii.ox.ac.uk/news-events/do-large-language-models-have-a-legal-d...
le falsità sono sempre esistite anche le credenze non riscontrabili imho il problema non è tanto il falso ma la sua diffusione e codice (aka scala, velocità e rimedio) buona estate Il 7 agosto 2024 13:54:20 UTC, Fabio Alemagna <falemagn@gmail.com> ha scritto:
Mi sembra la descrizione perfetta del comportamento di un politico medio. Se dovessimo obbligare per legge gli LLM a dire la verità, per quale ragione dovremmo esentare i politici dal fare altrettanto?
Il mer 7 ago 2024, 12:55 J.C. DE MARTIN <juancarlos.demartin@polito.it> ha scritto:
*OII | Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers*
Written by Sandra Wachter, Brent Mittelstadt and Chris Russell
*Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed*
Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers
Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed by creating a new legal duty for LLM providers.
In their new paper ‘Do large language models have a legal duty to tell the truth?’, published by the Royal Society Open Science, the Oxford researchers set out how LLMs produce responses that are plausible, helpful and confident but contain factual inaccuracies, misleading references and biased information. They term this problematic phenomenon as ‘careless speech’ which they believe causes long-term harms to science, education and society.
continua qui: https://www.oii.ox.ac.uk/news-events/do-large-language-models-have-a-legal-d...
Il politico e un LLM non sono confrontabili. Per favore smettiamola di paragonare sistemi industriali e persone solo perché producono la stessa tipologia di output (o di inquinamento). Sarebbe come confrontare uno che brucia un pezzo di carta plasticata in giardino con il disastro di Seveso solo perché in entrambi i casi si è prodotta diossina. A. PS: No god in the machine: the pitfalls of AI worship <https://www.theguardian.com/news/article/2024/aug/08/no-god-in-the-machine-t...> The rise of artificial intelligence has sparked a panic about computers gaining power over humankind. But the real threat comes from falling for the hype [...] On 07/08/24 15:54, Fabio Alemagna wrote:
Mi sembra la descrizione perfetta del comportamento di un politico medio. Se dovessimo obbligare per legge gli LLM a dire la verità, per quale ragione dovremmo esentare i politici dal fare altrettanto?
Il mer 7 ago 2024, 12:55 J.C. DE MARTIN <juancarlos.demartin@polito.it> ha scritto:
*OII | Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers*
Written by Sandra Wachter, Brent Mittelstadt and Chris Russell
/Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed/
Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers
Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed by creating a new legal duty for LLM providers.
In their new paper ‘Do large language models have a legal duty to tell the truth?’, published by the Royal Society Open Science, the Oxford researchers set out how LLMs produce responses that are plausible, helpful and confident but contain factual inaccuracies, misleading references and biased information. They term this problematic phenomenon as ‘careless speech’ which they believe causes long-term harms to science, education and society.
continua qui: https://www.oii.ox.ac.uk/news-events/do-large-language-models-have-a-legal-d...
whatever, ma fa un po' pensare che mentre i ricercatori di Oxford parlano di introdurre una "Legal Duty to Tell the Truth" per i LLM, a pochi chilometri migliaia di hooligan imbufaliti bruciano le macchine perché qualcuno ha diffuso fake news sull'assassino di quelle tre bambine a Southport, dicendo che era un immigrato clandestino musulmano. A parte l'imbecillità neopositivista degli oxfordiani sulla quale potremo tornare, il problema come dice Stefano è la diffusione, non la genesi. Isn't it? G. On Fri, 9 Aug 2024 at 15:20, Alberto Cammozzo via nexa < nexa@server-nexa.polito.it> wrote:
Il politico e un LLM non sono confrontabili.
Per favore smettiamola di paragonare sistemi industriali e persone solo perché producono la stessa tipologia di output (o di inquinamento). Sarebbe come confrontare uno che brucia un pezzo di carta plasticata in giardino con il disastro di Seveso solo perché in entrambi i casi si è prodotta diossina.
A.
PS: No god in the machine: the pitfalls of AI worship
<https://www.theguardian.com/news/article/2024/aug/08/no-god-in-the-machine-t...> <https://www.theguardian.com/news/article/2024/aug/08/no-god-in-the-machine-t...>
The rise of artificial intelligence has sparked a panic about computers gaining power over humankind. But the real threat comes from falling for the hype
[...] On 07/08/24 15:54, Fabio Alemagna wrote:
Mi sembra la descrizione perfetta del comportamento di un politico medio. Se dovessimo obbligare per legge gli LLM a dire la verità, per quale ragione dovremmo esentare i politici dal fare altrettanto?
Il mer 7 ago 2024, 12:55 J.C. DE MARTIN <juancarlos.demartin@polito.it> ha scritto:
*OII | Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers*
Written by Sandra Wachter, Brent Mittelstadt and Chris Russell
*Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed*
Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers
Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed by creating a new legal duty for LLM providers.
In their new paper ‘Do large language models have a legal duty to tell the truth?’, published by the Royal Society Open Science, the Oxford researchers set out how LLMs produce responses that are plausible, helpful and confident but contain factual inaccuracies, misleading references and biased information. They term this problematic phenomenon as ‘careless speech’ which they believe causes long-term harms to science, education and society.
continua qui: https://www.oii.ox.ac.uk/news-events/do-large-language-models-have-a-legal-d...
Il 9 Agosto 2024 13:39:01 UTC, Guido Vetere <vetere.guido@gmail.com> ha scritto:
A parte l'imbecillità neopositivista degli oxfordiani sulla quale potremo tornare, il problema come dice Stefano è la diffusione, non la genesi.
Certo, fintanto che non lo legge NESSUNO, può produrre qualsiasi output. Riservando l'output di un LLM esclusivamente agli sviluppatori che lo hanno programmato statisticamente, non si può danneggiare nessuno. Solo nel momento in cui viene inviato a terze parti, chi lo amministra ne deve rispondere, indipendentemente dal canale usato per trasmetterlo, esattamente come se avesse scritto di proprio pugno quell'output. Ciò ovviamente non esclude ulteriori responsabilità di chi riceve tale output se, ad esempio, lo invia a terzi. Per cui fintanto che i vari LLM sono accessibili al pubblico e/o forniti come servizi a pagamento, diverse persone ne devono rispondere. Non servono nuove leggi: basta applicare quelle esistenti, come spiegava bene Daniela Tafani già l'anno scorso <https://asimmetrie.org/wp-content/uploads/2023/12/Daniela-Tafani-Lintelligen...> Giacomo
Altri dicono che 'qualcuno' ha un nome, ed è una persona, e anche che dovrebbe rispondere del proprio output. <https://www.theguardian.com/commentisfree/article/2024/aug/09/uk-far-right-r...> In questo caso le macchine sono guidate deliberatamente per fomentare violenza con un piano politico. A. On 09/08/24 15:39, Guido Vetere wrote:
whatever, ma fa un po' pensare che mentre i ricercatori di Oxford parlano di introdurre una "Legal Duty to Tell the Truth" per i LLM, a pochi chilometri migliaia di hooligan imbufaliti bruciano le macchine perché qualcuno ha diffuso fake news sull'assassino di quelle tre bambine a Southport, dicendo che era un immigrato clandestino musulmano.
A parte l'imbecillità neopositivista degli oxfordiani sulla quale potremo tornare, il problema come dice Stefano è la diffusione, non la genesi.
Isn't it?
G.
On Fri, 9 Aug 2024 at 15:20, Alberto Cammozzo via nexa <nexa@server-nexa.polito.it> wrote:
Il politico e un LLM non sono confrontabili.
Per favore smettiamola di paragonare sistemi industriali e persone solo perché producono la stessa tipologia di output (o di inquinamento).
Sarebbe come confrontare uno che brucia un pezzo di carta plasticata in giardino con il disastro di Seveso solo perché in entrambi i casi si è prodotta diossina.
A.
PS: No god in the machine: the pitfalls of AI worship <https://www.theguardian.com/news/article/2024/aug/08/no-god-in-the-machine-t...> <https://www.theguardian.com/news/article/2024/aug/08/no-god-in-the-machine-t...>
The rise of artificial intelligence has sparked a panic about computers gaining power over humankind. But the real threat comes from falling for the hype
[...]
On 07/08/24 15:54, Fabio Alemagna wrote:
Mi sembra la descrizione perfetta del comportamento di un politico medio. Se dovessimo obbligare per legge gli LLM a dire la verità, per quale ragione dovremmo esentare i politici dal fare altrettanto?
Il mer 7 ago 2024, 12:55 J.C. DE MARTIN <juancarlos.demartin@polito.it> ha scritto:
*OII | Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers*
Written by Sandra Wachter, Brent Mittelstadt and Chris Russell
/Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed/
Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers
Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed by creating a new legal duty for LLM providers.
In their new paper ‘Do large language models have a legal duty to tell the truth?’, published by the Royal Society Open Science, the Oxford researchers set out how LLMs produce responses that are plausible, helpful and confident but contain factual inaccuracies, misleading references and biased information. They term this problematic phenomenon as ‘careless speech’ which they believe causes long-term harms to science, education and society.
continua qui: https://www.oii.ox.ac.uk/news-events/do-large-language-models-have-a-legal-d...
L'orrido Musk ha la responsabilità di aver accreditato le fake news e di averle propalate, e si spera (ma verosimilmente invano) che paghi per questo. Tuttavia, chi ha fabbricato il falso pare sia stata un'anonima 55-enne, già assicurata alla giustizia <https://www.theguardian.com/uk-news/article/2024/aug/08/chester-woman-55-arr...> . Ora un esperimento mentale: si scopre che la mentitrice ha generato il falso per mezzo di un LLM. Quesito: potrà usare questa circostanza a sua, sia pur parziale, discolpa? Se sì, bisognerà dare ragione ai ricercatori di Oxford, altrimenti avranno ricercato invano. Saluti, G. On Sat, 10 Aug 2024 at 09:37, Alberto Cammozzo <ac+nexa@zeromx.net> wrote:
Altri dicono che 'qualcuno' ha un nome, ed è una persona, e anche che dovrebbe rispondere del proprio output.
<https://www.theguardian.com/commentisfree/article/2024/aug/09/uk-far-right-r...> <https://www.theguardian.com/commentisfree/article/2024/aug/09/uk-far-right-r...>
In questo caso le macchine sono guidate deliberatamente per fomentare violenza con un piano politico.
A.
On 09/08/24 15:39, Guido Vetere wrote:
whatever, ma fa un po' pensare che mentre i ricercatori di Oxford parlano di introdurre una "Legal Duty to Tell the Truth" per i LLM, a pochi chilometri migliaia di hooligan imbufaliti bruciano le macchine perché qualcuno ha diffuso fake news sull'assassino di quelle tre bambine a Southport, dicendo che era un immigrato clandestino musulmano.
A parte l'imbecillità neopositivista degli oxfordiani sulla quale potremo tornare, il problema come dice Stefano è la diffusione, non la genesi.
Isn't it?
G.
On Fri, 9 Aug 2024 at 15:20, Alberto Cammozzo via nexa < nexa@server-nexa.polito.it> wrote:
Il politico e un LLM non sono confrontabili.
Per favore smettiamola di paragonare sistemi industriali e persone solo perché producono la stessa tipologia di output (o di inquinamento). Sarebbe come confrontare uno che brucia un pezzo di carta plasticata in giardino con il disastro di Seveso solo perché in entrambi i casi si è prodotta diossina.
A.
PS: No god in the machine: the pitfalls of AI worship
<https://www.theguardian.com/news/article/2024/aug/08/no-god-in-the-machine-t...> <https://www.theguardian.com/news/article/2024/aug/08/no-god-in-the-machine-t...>
The rise of artificial intelligence has sparked a panic about computers gaining power over humankind. But the real threat comes from falling for the hype
[...] On 07/08/24 15:54, Fabio Alemagna wrote:
Mi sembra la descrizione perfetta del comportamento di un politico medio. Se dovessimo obbligare per legge gli LLM a dire la verità, per quale ragione dovremmo esentare i politici dal fare altrettanto?
Il mer 7 ago 2024, 12:55 J.C. DE MARTIN <juancarlos.demartin@polito.it> ha scritto:
*OII | Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers*
Written by Sandra Wachter, Brent Mittelstadt and Chris Russell
*Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed*
Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers
Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed by creating a new legal duty for LLM providers.
In their new paper ‘Do large language models have a legal duty to tell the truth?’, published by the Royal Society Open Science, the Oxford researchers set out how LLMs produce responses that are plausible, helpful and confident but contain factual inaccuracies, misleading references and biased information. They term this problematic phenomenon as ‘careless speech’ which they believe causes long-term harms to science, education and society.
continua qui: https://www.oii.ox.ac.uk/news-events/do-large-language-models-have-a-legal-d...
Salve Guido, Il 10 Agosto 2024 08:36:32 UTC, Guido Vetere <vetere.guido@gmail.com> ha scritto:
Ora un esperimento mentale: si scopre che la mentitrice ha generato il falso per mezzo di un LLM. Quesito: potrà usare questa circostanza a sua, sia pur parziale, discolpa?
Dipende. Era consapevole di come funziona un LLM? Era consapevole della falsità dell'interpretazione che gli altri avrebbero attribuito alla sequenza di caratteri calcolati dal software? Se no, non si potrebbe attribuirgli alcuna responsabilità, che sarebbe SOLO di coloro che le hanno fornito accesso al LLM in questione. Se sì, la responsabilità delle conseguenze della diffusione di tale output ricadrebbe anche su di lei.
Se sì, bisognerà dare ragione ai ricercatori di Oxford, altrimenti avranno ricercato invano.
Non sequitur: i ricercatori di Oxford possono aver "ricercato invano" anche se la la tua ipotetica signora fosse vittima della malafede di chi realizza e promuove come "intelligenze artificiali" questi software programmati statisticamente. Non si tratta di istituire "verità" da imporre ai software (o meglio, tramite i software). Si tratta semplicemente di individuare i responsabili, senza permettere a nessuno di nascondersi dietro un software, che si chiami Twitter o ChatGPT. Che si tratti della 56 enne arrestata a Chester, di Musk. di Altman, di Bankman-Fried... Giacomo
altro esperimento mentale, della serie: "se voi foste il giudice" (valida alternativa alle parole crociate sulla settimana enigmistica) la signora di Chester, alla sbarra per istigazione all'odio sul web, dice al giudice che la bufala sul musulmano clandestino gliel'aveva raccontata suo cugino al telefono. quesiti: si potrebbe trattare di una attenuante? in tal caso, sarebbe ancora un'attenuante se la signora fosse stata al corrente che il cugino è un paranoico? infine: bisognerebbe incriminare anche il cugino? se io fossi il giudice, direi di no: il crimine non consiste nel dare credito a una affermazione non verificata (altrimenti staremmo tutti in galera), e neanche raccontare balle al telefono. il crimine consiste nel diffondere attraverso mezzi di comunicazione di massa notizie non verificate che possono fomentare la violenza. la paranoia conclamata del cugino non rileva. (i legali mi correggano) fuor di metafora: l'idea che i LLM debbano essere per legge tenuti alla veridicità è da una parte ingenua (veridicità secondo quale episteme? ah saperlo!), dall'altra inutile: la decisione cruciale riguarda come usare l'AI generativa, ed è una decisione tutta umana. pensare il contrario significa abbracciare una visione pericolosamente tecno-positivista del problema etico della conoscenza, ben noto fin dai tempi antichi. buona domenica! G. On Sat, 10 Aug 2024 at 17:59, Giacomo Tesio <giacomo@tesio.it> wrote:
Salve Guido,
Il 10 Agosto 2024 08:36:32 UTC, Guido Vetere <vetere.guido@gmail.com> ha scritto:
Ora un esperimento mentale: si scopre che la mentitrice ha generato il falso per mezzo di un LLM. Quesito: potrà usare questa circostanza a sua, sia pur parziale, discolpa?
Dipende.
Era consapevole di come funziona un LLM? Era consapevole della falsità dell'interpretazione che gli altri avrebbero attribuito alla sequenza di caratteri calcolati dal software?
Se no, non si potrebbe attribuirgli alcuna responsabilità, che sarebbe SOLO di coloro che le hanno fornito accesso al LLM in questione.
Se sì, la responsabilità delle conseguenze della diffusione di tale output ricadrebbe anche su di lei.
Se sì, bisognerà dare ragione ai ricercatori di Oxford, altrimenti avranno ricercato invano.
Non sequitur: i ricercatori di Oxford possono aver "ricercato invano" anche se la la tua ipotetica signora fosse vittima della malafede di chi realizza e promuove come "intelligenze artificiali" questi software programmati statisticamente.
Non si tratta di istituire "verità" da imporre ai software (o meglio, tramite i software). Si tratta semplicemente di individuare i responsabili, senza permettere a nessuno di nascondersi dietro un software, che si chiami Twitter o ChatGPT.
Che si tratti della 56 enne arrestata a Chester, di Musk. di Altman, di Bankman-Fried...
Giacomo
Come ha già detto Quintarelli parlando di "scala, velocità e rimedio", il punto credo sia non la veridicità ma le conseguenze, la scala, gli scopi della diffusione, e soprattutto l'assunzione di responsabilità di chi diffonde affermazioni. Se un influencer con zilioni di follower dice che il suo unicorno ha la gotta, o che la terra è piatta, nessuno lo porterà in tribunale. Se lo stesso diffonde notizie false che scatenano un pogrom, sì, e giustamente, specie se si può dimostrare che lo scopo era proprio quello. Se la stessa notizia falsa e pericolosa la diffonde uno che ha tre follower, nessuno dei quali fa nulla, nessuno si prenderà la briga di perseguirlo. Se il mega influencer diffonde notizie -anche vere- che hanno conseguenze per terzi dovrà essere in grado di dimostrarne la fondatezza, forse anche in tribunale se questi si ritengono lesi o diffamati; quindi: conseguenze. Che abbia preso le notizie dal blog di suo cugino, da un motore di ricerca, da un oroscopo o da un LLM poco conta. Questo per quanto riguarda le persone: ci sia aspetta che un umano sia in grado di rispondere delle conseguenze del proprio output, e della veridicità solo in conseguenza. I software al contrario vantano uno statuto di sostanziale irresponsabilità sancito consuetudianariamente dai /terms of use/, per cui la responsabilità dell'uso del loro output cade su chi li usa e non su chi produce il software. Il problema con gli LLM (condiviso con i social) è che sono emanazione di società che usano software per produrre/diffondere affermazioni: (1) per lucro, (2) massimizzando la scala di diffusione industrialmente e (3) minimizzando la propria responsabilità, estendendo a proprio vantaggio l'irresponsabilità del software. Come per i social, non è irragionevole che un business che lucra sulla diffusione di affermazioni si assuma la responsabilità sulle conseguenze della diffusione delle stesse, considerando la diffusione di notizie false non tanto per la loro falsità, quanto per la scala e le potenziali conseguenze della loro diffusione. Ed eventualmente per il sussistere di scopi criminosi, ai quali incita terzi. Ma per favore non diciamo che il tal LLM o il tal social (o internet o il web) dice questo o quello. Quello che viene detto viene detto o da persone o da imprese, che antropomorfizzano un software irresponsabile per non assumersi la responsabilità delle conseguenze del potere che hanno grazie a tal software. E che vendono. Buona domenica. Alberto On 11/08/24 09:12, Guido Vetere wrote:
altro esperimento mentale, della serie: "se voi foste il giudice" (valida alternativa alle parole crociate sulla settimana enigmistica)
la signora di Chester, alla sbarra per istigazione all'odio sul web, dice al giudice che la bufala sul musulmano clandestino gliel'aveva raccontata suo cugino al telefono.
quesiti: si potrebbe trattare di una attenuante? in tal caso, sarebbe ancora un'attenuante se la signora fosse stata al corrente che il cugino è un paranoico? infine: bisognerebbe incriminare anche il cugino?
se io fossi il giudice, direi di no: il crimine non consiste nel dare credito a una affermazione non verificata (altrimenti staremmo tutti in galera), e neanche raccontare balle al telefono. il crimine consiste nel diffondere attraverso mezzi di comunicazione di massa notizie non verificate che possono fomentare la violenza. la paranoia conclamata del cugino non rileva. (i legali mi correggano)
fuor di metafora: l'idea che i LLM debbano essere per legge tenuti alla veridicità è da una parte ingenua (veridicità secondo quale episteme? ah saperlo!), dall'altra inutile: la decisione cruciale riguarda come usare l'AI generativa, ed è una decisione tutta umana. pensare il contrario significa abbracciare una visione pericolosamente tecno-positivista del problema etico della conoscenza, ben noto fin dai tempi antichi.
buona domenica! G.
On Sat, 10 Aug 2024 at 17:59, Giacomo Tesio <giacomo@tesio.it> wrote:
Salve Guido,
Il 10 Agosto 2024 08:36:32 UTC, Guido Vetere <vetere.guido@gmail.com> ha scritto: > Ora un esperimento mentale: si scopre che la mentitrice ha generato il > falso per mezzo di un LLM. > Quesito: potrà usare questa circostanza a sua, sia pur parziale, discolpa?
Dipende.
Era consapevole di come funziona un LLM? Era consapevole della falsità dell'interpretazione che gli altri avrebbero attribuito alla sequenza di caratteri calcolati dal software?
Se no, non si potrebbe attribuirgli alcuna responsabilità, che sarebbe SOLO di coloro che le hanno fornito accesso al LLM in questione.
Se sì, la responsabilità delle conseguenze della diffusione di tale output ricadrebbe anche su di lei.
> Se sì, bisognerà dare ragione ai ricercatori di Oxford, altrimenti avranno > ricercato invano.
Non sequitur: i ricercatori di Oxford possono aver "ricercato invano" anche se la la tua ipotetica signora fosse vittima della malafede di chi realizza e promuove come "intelligenze artificiali" questi software programmati statisticamente.
Non si tratta di istituire "verità" da imporre ai software (o meglio, tramite i software). Si tratta semplicemente di individuare i responsabili, senza permettere a nessuno di nascondersi dietro un software, che si chiami Twitter o ChatGPT.
Che si tratti della 56 enne arrestata a Chester, di Musk. di Altman, di Bankman-Fried...
Giacomo
On Sun, Aug 11, 2024 at 14:24, Alberto Cammozzo via nexa wrote: Come ha già detto Quintarelli parlando di "scala, velocità e rimedio", il punto credo sia non la veridicità ma le conseguenze, la scala, gli scopi della diffusione, e soprattutto l'assunzione di responsabilità di chi diffonde affermazioni. Se un influencer con zilioni di follower dice che il suo unicorno ha la gotta, o che la terra è piatta, nessuno lo porterà in tribunale. Se lo stesso diffonde notizie false che scatenano un pogrom, sì, e giustamente, specie se si può dimostrare che lo scopo era proprio quello. Se la stessa notizia falsa e pericolosa la diffonde uno che ha tre follower, nessuno dei quali fa nulla, nessuno si prenderà la briga di perseguirlo. per la cronaca, questo e' il motivo per cui anni fa proponevo, come soluzione parziale ma necessaria, di limitare "the amount of time during which they can publish every day" https://stop.zona-m.net/2021/01/we-really-need-two-minutes-of-hate-every-day... (https://stop.zona-m.net/2021/01/we-really-need-two-minutes-of-hate-every-day...) https://stop.zona-m.net/2021/10/censorship-or...-efficient-slowness/ (https://stop.zona-m.net/2021/10/censorship-or...-efficient-slowness/) Marco
Caro Guido, l'importante, in uno stato di diritto è che la Legge sia uguale per tutti e nessuno possa sperare di sottrarvisi attraverso automatismi che compiono reati per proprio conto. Il 11 Agosto 2024 07:12:04 UTC, Guido Vetere <vetere.guido@gmail.com> ha scritto:
il crimine non consiste nel dare credito a una affermazione non verificata (altrimenti staremmo tutti in galera), e neanche raccontare balle al telefono. il crimine consiste nel diffondere attraverso mezzi di comunicazione di massa notizie non verificate che possono fomentare la violenza.
Se questo fosse il crimine, bisognerebbe arrestare la maggioranza dei giornalisti dall'inizio della guerra in Ucraina in poi. Non capisco poi la fretta di assolvere i mezzi di comunicazione di massa (giornali, TV, LLM distribuiti gratuitamente...) e quelli di manipolazione individuale su larga scala (social vari, LLM forniti come SaaS etc...): ad esempio, nel caso concreto, è stato Musk a decidere di inviare la fake news a persone con probabilità elevata avrebbero reagito violentemente. Il fatto che l'abbia fatto tramite un software (Twitter) deve essere irrilevante.
fuor di metafora: l'idea che i LLM debbano essere per legge tenuti alla veridicità è...
una cazzata. Siamo d'accordo: i LLM sono espressione di chi li realizza, distribuisce e amministra. Non si può pretendere di imporre una verità a queste persone più di quanto non la si possa imporre a qualsiasi altro cittadino che si esprima in altro modo, attraverso l'arte, la poesia, la letteratura, il giornalismo etc... Semplicemente bisogna sempre considerarli direttamente responsabili del loro output, esattamente come se lo avessero scritto di proprio pugno su un giornale a tiratura planetaria. Niente di più e niente di meno. Giacomo
A questo proposito, un parere ben informato da Bruce Daisley , ex vice-president for Europe, Middle East and Africa di Twitter: <https://www.theguardian.com/commentisfree/article/2024/aug/12/elon-musk-x-tw...> [...] We’ve hesitated from labelling tech billionaires as oligarchs because the likes of Bill Gates, Mark Zuckerberg and Jack Dorsey wielded their political power gently. Asking oligarchs to be accountable for what their platforms permit is straightforward and entirely possible. [...] In the short term, Musk and fellow executives should be reminded of their criminal liability for their actions under existing laws. Britain’s Online Safety Act 2023 should be beefed up with immediate effect. Prime Minister Keir Starmer and his team should reflect if Ofcom – the media regulator that seems to be continuously challenged by the output and behaviour of outfits such as GB News – is fit to deal with the blurringly fast actions of the likes of Musk. What else should change? Social media should have norms and standards that are publicly accountable. Users should have the right to have their grievances reviewed and acted on by a real person within a week, and escalated to an ombudsman if they don’t like the resolution. Ofcom should have the right to demand certain voices, like Tommy Robinson’s, are deplatformed. Anyone who doubts the practicality of this should take a look at social media in Germany, where platforms are significantly more accountable. In Germany, illegal Nazi content is routinely removed within minutes of it being reported. Liability extends to local leaders and it is incredibly mobilising. In my experience, that threat of personal sanction is much more effective on executives than the risk of corporate fines. Were Musk to continue stirring up unrest, an arrest warrant for him might produce fireworks from his fingertips, but as an international jet-setter it would have the effect of focusing his mind. It’s also worth remembering that the rules of what is permitted on X are created by one of Musk’s lesser known advisers, a Yorkshire man called Nick Pickles, who leads X’s global affairs team. Musk’s actions should be a wake-up call for Starmer’s government to quietly legislate to take back control of what we collectively agree is permissible on social media. Musk might force his angry tweets to the top of your timeline, but the will of a democratically elected government should mean more than the fury of a tech oligarch – even him. On 11 August 2024 14:36:57 CEST, Giacomo Tesio <giacomo@tesio.it> wrote:
Caro Guido,
l'importante, in uno stato di diritto è che la Legge sia uguale per tutti e nessuno possa sperare di sottrarvisi attraverso automatismi che compiono reati per proprio conto.
Il 11 Agosto 2024 07:12:04 UTC, Guido Vetere <vetere.guido@gmail.com> ha scritto:
il crimine non consiste nel dare credito a una affermazione non verificata (altrimenti staremmo tutti in galera), e neanche raccontare balle al telefono. il crimine consiste nel diffondere attraverso mezzi di comunicazione di massa notizie non verificate che possono fomentare la violenza.
Se questo fosse il crimine, bisognerebbe arrestare la maggioranza dei giornalisti dall'inizio della guerra in Ucraina in poi.
Non capisco poi la fretta di assolvere i mezzi di comunicazione di massa (giornali, TV, LLM distribuiti gratuitamente...) e quelli di manipolazione individuale su larga scala (social vari, LLM forniti come SaaS etc...): ad esempio, nel caso concreto, è stato Musk a decidere di inviare la fake news a persone con probabilità elevata avrebbero reagito violentemente.
Il fatto che l'abbia fatto tramite un software (Twitter) deve essere irrilevante.
fuor di metafora: l'idea che i LLM debbano essere per legge tenuti alla veridicità è...
una cazzata.
Siamo d'accordo: i LLM sono espressione di chi li realizza, distribuisce e amministra.
Non si può pretendere di imporre una verità a queste persone più di quanto non la si possa imporre a qualsiasi altro cittadino che si esprima in altro modo, attraverso l'arte, la poesia, la letteratura, il giornalismo etc...
Semplicemente bisogna sempre considerarli direttamente responsabili del loro output, esattamente come se lo avessero scritto di proprio pugno su un giornale a tiratura planetaria.
Niente di più e niente di meno.
Giacomo
Il ven 9 ago 2024, 17:20 Alberto Cammozzo via nexa < nexa@server-nexa.polito.it> ha scritto:
Il politico e un LLM non sono confrontabili.
Non vedo ragione per la quale non si possano confrontare, nel giusto contesto. Per favore smettiamola di paragonare sistemi industriali e persone solo
perché producono la stessa tipologia di output (o di inquinamento).
Non vedo per quale ragione, a parità di output (o di inquinamento) due sistemi non possano essere confrontati. Al contrario, mi pare che questa sia proprio una ragione per farlo. Sarebbe come confrontare uno che brucia un pezzo di carta plasticata in
giardino con il disastro di Seveso solo perché in entrambi i casi si è prodotta diossina.
Le decisioni le prendono i politici, sono i politici a incitare le folle e a candidarsi per le elezioni. Nel paragone che hai fatto, il disastro di seveso sono i politici, non gli LLM. Fabio
In un mio recente lavoro ho cercato di argomentare sul perchè sia auspicabile che i legislatori si soffermassero, anche per ragioni di certezza del diritto, sui nuovi profili giuridici inerenti allaresponsabilità derivante dalla creazione di “informazioni sintetizzate” [1] . Ritengo che la sfida che ci attende è quella di superare lo scarto culturale che vede il concetto di autorialità legato alla sola categoria persona, un individuo che crea o origina qualcosa, come un libro, un dipinto, una musica, una teoria o qualsiasi altra forma di espressione artistica o intellettuale. Non c'è dubbio che abbiamo creato qualcosa di innovativo, abbiamo disunito la capacità di comprensione dalla capacità ‘tecnologica’ di produrre idee e opinioni; abbiamo creato autori senza persona, senza libertà ma che, nei fatti, simulano l’esercizio di quella. Adesso abbiamo il compito di individuare modelli normativi per gestire le responsabilità derivanti da questi nuovi modelli di autorialità. Ne parlo anche in un recente articolo per il magazine Mag-IA [2]. Buona estate. Gianluca Fasano [1] dirittifondamentali.it <http://dirittifondamentali.it/2024/02/06/le-informazioni-sintetizzate-genera...> [2] Mag-IA <https://magia.news/large-language-models-le-implicazioni-giuridiche-ed-etich...> Il 07/08/2024 10:54, J.C. DE MARTIN ha scritto:
*OII | Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers*
Written by Sandra Wachter, Brent Mittelstadt and Chris Russell
/Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed/
Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers
Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed by creating a new legal duty for LLM providers.
In their new paper ‘Do large language models have a legal duty to tell the truth?’, published by the Royal Society Open Science, the Oxford researchers set out how LLMs produce responses that are plausible, helpful and confident but contain factual inaccuracies, misleading references and biased information. They term this problematic phenomenon as ‘careless speech’ which they believe causes long-term harms to science, education and society.
continua qui: https://www.oii.ox.ac.uk/news-events/do-large-language-models-have-a-legal-d...
Salve Gianluca, devo ancora finire di commentare un articolo che avevi condiviso qui in lista tempo fa. Meritava una analisi puntuale ed attenta che non ho potuto completare, ma cui spero di riuscire presto a dedicare l'attenzione necessaria. Il 20 Agosto 2024 10:39:18 UTC, Gianluca Fasano <gianluca.fasano@cnr.it> ha scritto:
Non c'è dubbio...
Questa frase dovrebbe già suonarti come un campanello d'allarme: il dubbio è il fondamento della ricerca scientifica e quando manca abbiamo buone probabilità di non aver compreso davvero ciò di cui ragioniamo.
abbiamo disunito la capacità di comprensione dalla capacità ‘tecnologica’ di produrre idee e opinioni;
No. Abbiamo realizzato software che producono output testuale privo di significato ma in grado di ingannare gli esseri umani che non ne comprendono il funzionamento. La tua mente attribuisce significato a qualcosa che non ce l'ha, come un sasso o la pioggia, ma che è stato letteralmente progettato e realizzato per massimizzare la probabilità di ingannarti. Turing lo chiamava "imitation game", ma sarebbe stato più corretto parlare di "imitation deceit". È software innovativo? Sì, abbastanza da apparire "indistinguibile dalla magia" ai profani. Produce idee e opinioni? No. Ma è stato progettato per ingannare la tua mente in proposito.
abbiamo creato autori senza persona
Confondi autorialità e plagio automatizzato su larghissima scala.
senza libertà ma che, nei fatti, simulano l’esercizio di quella.
Come simulano la produzione di idee e opinioni: tramite l'inclusione di numeri casuali nell'input del software.
Adesso abbiamo il compito di individuare modelli normativi per gestire le responsabilità derivanti da questi nuovi modelli di autorialità.
Perché? Non basta che ne rispondano coloro che realizzano il software (quando scaricabile) o che forniscono il servizio (vedi ChatGPT, Gemini etc...) Hanno scritto un software che produce output per loro conto, riproducendo malamente i testi che hanno usato per programmarlo statisticamente. È sufficiente che rispondano delle eventuali violazioni del diritto d'autore e di ogni output che questi software producono come se lo avessero scritto per proprio conto. Se quell'output viene interpretato da un giudice come diffamatorio, loro risponderanno per diffamazione. Se quell'output viene interpretato da un giudice come disinformazione, loro ne risponderanno. E così via. Perché l'uso di automatismi complessi per violare i diritti delle persone o le norme esistenti dovrebbe garantire impunità o comunque un trattamento diverso da parte della Legge? Giacomo
participants (8)
-
Alberto Cammozzo -
Fabio Alemagna -
Giacomo Tesio -
Gianluca Fasano -
Guido Vetere -
J.C. DE MARTIN -
Marco Fioretti -
Stefano Quintarelli