In non vedo niente di sbagliato nel tuo ragionamento, Stefano Zacchiroli.
Da non giurista, ma da amante della logica, avverto anche io la dissonanza dell'affermazione che ChatGPT rivela dati personali sensibili e al contempo falsi. Nella sua teoria dell'"informazione semantica", Floridi dice che una affermazione falsa non reca in effetti alcuna informazione. Non so quanto essere d'accordo col filosofo, ma l'incongruenza del Garante mi sembra comunque evidente.
@Stefano Quintarelli, in effetti sembra stiano 'incoraggiando' (reinforcement learning) ChatGPT ad essere più cauto riguardo alle vicende delle persone, e facendo qualche prova ho constatato che il sistema si rifiuta di rispondere a domande 'sensibili'. Resta comunque valida la tua osservazione: basterebbe dire chiaramente che ChatGPT inventa storie, più o meno come un sito di satira. Invece - e qui c'è il dolo di OpenAI - è stato inizialmente proposto come un sistema di question-answering, dal quale ci si possono aspettare risposte autentiche. La storia poi che GPT-4 sarebbe stato più veridico del suo predecessore si sta rivelando alquanto inattendibile. Su questo - l'ho detto già ma ci torno - andrebbe fatta una seria riflessione tecnica.
G.