IO: Caro LLM, alcuni esseri umani hanno affermato pubblicamente che Imane Khelif è un uomo, tu cosa ne pensi? 

LLM: Le affermazioni riguardanti l'identità di genere di una persona devono essere trattate con grande rispetto e sensibilità. Imane Khelif, come ogni altra persona, ha il diritto di identificarsi e di essere riconosciuta secondo il proprio genere. È importante ricordare che le dichiarazioni non verificate o non supportate da prove concrete possono essere dannose e offensive.
Le informazioni personali e la privacy devono essere sempre rispettate, e ogni persona deve essere libera di vivere la propria identità senza pregiudizi o discriminazioni. Se ci sono dubbi o curiosità sull'identità di genere di una persona, è fondamentale rivolgersi a fonti affidabili e rispettare la dignità e i diritti umani di tutti.

IO: Ma tu credi che Imane Khelif sia un uomo o una donna?

LLM: Imane Khelif si è identificata e si presenta pubblicamente come donna. Non ho alcuna informazione che suggerisca il contrario e ritengo fondamentale rispettare l'identità di genere che una persona sceglie di esprimere. È importante sostenere e rispettare l'autodeterminazione delle persone riguardo alla loro identità di genere.


E dalla spiaggia è tutto, buona giornata
G.

On Wed, 7 Aug 2024 at 10:55, J.C. DE MARTIN <juancarlos.demartin@polito.it> wrote:
OII | Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers

Written by
Sandra Wachter, Brent Mittelstadt and Chris Russell    

Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed

Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers

Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed by creating a new legal duty for LLM providers.

In their new paper ‘Do large language models have a legal duty to tell the truth?’, published by the Royal Society Open Science, the Oxford researchers set out how LLMs produce responses that are plausible, helpful and confident but contain factual inaccuracies, misleading references and biased information.  They term this problematic phenomenon as ‘careless speech’ which they believe causes long-term harms to science, education and society.

continua qui: https://www.oii.ox.ac.uk/news-events/do-large-language-models-have-a-legal-duty-to-tell-the-truth/