On gio, 2023-04-06 at 09:13 +0200, Stefano Zacchiroli wrote:
Grazie per la segnalazione. Osservo che questo passaggio:

On Wed, Apr 05, 2023 at 02:09:26PM +0000, Daniela Tafani wrote:
The upshot is that in just under a month, there were three recorded
incidences of employees leaking sensitive information via
ChatGPT. Since ChatGPT retains user input data to further train
itself, these trade secrets from Samsung are now effectively in the
hands of OpenAI, the company behind the AI service.

smentisce alcuni delle ipotesi che sono circolate qui in lista nei
giorni scorsi, sul fatto che ChatGPT *non* usasse gli input per il
(re)training futuro. (Personalmente lo trovo poco sorprendente: non si
capisce perché dovrebbero rinunciare ad utilizzare dati "gentilmente
offerti" dagli utenti del servizio...)

Pur senza avere certezze, non credo che sia possibile effettuare un retraining incrementale di un LLM.
Penso piuttosto che vengano "riprogrammati" filtraggi" digitali od umani (sfruttati) per
 modificare/censurare le risposte di GPT-3 in fase di input o dopo l'output.

Nessun retraining. GTP continua, come tutti gli LLC a sparare output cinofallici (come direbbe Flora)
 per sua natura e progetto.

JM2EC.   Marco

A presto