Mah, ho dei dubbi.
I punti 0 e 1 sono nodali per una qualche responsabilità e qui manca un pezzo fondamentale: la diffamazione si consuma quando la frase lesiva viene percepita almeno dal secondo soggetto (io posso dire o sentire le peggiori cose riguardanti un terzo in una conversazione 1a1 e per fortuna non è reato!!)

Chi è responsabile di aver diffuso ad almeno due  persone le frasi diffamatorie in questo caso?

Poi il problema resta eh, ma non nei termini indicati. Qui x si è se va bene autodiffamato, subendo poi le conseguenze della circolazione di quella diffamazione. Un effetto Streisand perfetto.

Poi ripeto, il problema resta e il servizio non può non consentire, come avverrebbe nel mondo reale, un "chiarimento" per evitare altre possibili ma non scontate comunicazioni a terzi. Però dobbiamo come ho già detto spostare il focus da macchina e messaggio, e andare sugli attori.

È tutto complicato...
CB



Il gio 6 apr 2023, 11:03 Daniela Tafani <daniela.tafani@unipi.it> ha scritto:

Buongiorno.


Grazie della segnalazione.


Gli effetti ulteriori saranno i seguenti  (i punti da 0. a 2. hanno già avuto luogo nel caso in oggetto*):

      

     0. un generatore di stringhe di testo (nel caso citato, ChatGPT) restituisce, a x oppure a y, un output D, diffamatorio nei riguardi di x; 

  1. x rettifica pubblicamente, online, ovviamente citando il testo della diffamazione D;
  2. il testo della diffamazione D è prelevato da un generatore di testo con accesso alla rete (nel caso in oggetto, Bing), che la restituisce all'utente z quale output;

  3. l'utente z procede come i molti che vanno cercando in libreria i libri indicati da ChatGPT: diffonde la diffamazione D, ritenendola fondata;
  4. la vita di x è rovinata.


Un saluto,
Daniela


Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Benedetto Ponti <benedetto.ponti@unipg.it>
Inviato: giovedì 6 aprile 2023 07:38
A: nexa@server-nexa.polito.it
Oggetto: [nexa] ChatGPT invented a sexual harassment scandal and named a real law prof as the accused
 

ChatGPT invented a sexual harassment scandal and named a real law prof as the accused

The AI chatbot can misrepresent key facts with great flourish, even citing a fake Washington Post article as evidence

April 5, 2023 at 2:07 p.m. EDT


One night last week, the law professor Jonathan Turley got a troubling email. As part of a research study, a fellow lawyer in California had asked the AI chatbot ChatGPT to generate a list of legal scholars who had sexually harassed someone. Turley’s name was on the list.
Tech is not your friend. We are. Sign up for The Tech Friend newsletter.

The chatbot, created by OpenAI, said Turley had made sexually suggestive comments and attempted to touch a student while on a class trip to Alaska, citing a March 2018 article in The Washington Post as the source of the information. The problem: No such article existed. There had never been a class trip to Alaska. And Turley said he’d never been accused of harassing a student.

A regular commentator in the media, Turley had sometimes asked for corrections in news stories. But this time, there was no journalist or editor to call — and no way to correct the record.

(continua qui:

https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/)

--
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa