In un mio recente lavoro ho cercato di argomentare sul perchè sia auspicabile che i legislatori si soffermassero, anche per ragioni di certezza del diritto, sui nuovi profili giuridici inerenti alla responsabilità derivante dalla creazione di “informazioni sintetizzate” [1] .
Ritengo che la sfida che ci attende è quella di superare lo scarto culturale che vede il concetto di autorialità legato alla sola categoria persona, un individuo che crea o origina qualcosa, come un libro, un dipinto, una musica, una teoria o qualsiasi altra forma di espressione artistica o intellettuale.
Non c'è dubbio che abbiamo creato qualcosa di innovativo, abbiamo disunito la capacità di comprensione dalla capacità ‘tecnologica’ di produrre idee e opinioni; abbiamo creato autori senza persona, senza libertà ma che, nei fatti, simulano l’esercizio di quella. Adesso abbiamo il compito di individuare modelli normativi per gestire le responsabilità derivanti da questi nuovi modelli di autorialità.
Ne parlo anche in un recente articolo per il magazine Mag-IA [2].
Buona estate.
Gianluca Fasano
OII | Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers
Written by
Sandra Wachter, Brent Mittelstadt and Chris Russell
Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed
Large Language Models pose a risk to society and need tighter regulation, say Oxford researchers
Leading experts in regulation and ethics at the Oxford Internet Institute, part of the University of Oxford, have identified a new type of harm created by LLMs which they believe poses long-term risks to democratic societies and needs to be addressed by creating a new legal duty for LLM providers.
In their new paper ‘Do large language models have a legal duty to tell the truth?’, published by the Royal Society Open Science, the Oxford researchers set out how LLMs produce responses that are plausible, helpful and confident but contain factual inaccuracies, misleading references and biased information. They term this problematic phenomenon as ‘careless speech’ which they believe causes long-term harms to science, education and society.
continua qui: https://www.oii.ox.ac.uk/news-events/do-large-language-models-have-a-legal-duty-to-tell-the-truth/