Caro Guido, credo che questo tuo messaggio sia veramente emblematico. On Sun, 16 Apr 2023 17:14:15 +0200 Guido Vetere wrote:
Bisognerebbe smetterla di ragionare su quello che ChatGPT dovrebbe essere o ci piacerebbe che fosse (in sostanza: il front-end di una base di conoscenza editabile, come d'altronde ce ne sono tanti) e ragionare invece su quello che è, su come usarlo e con quali cautele, sul non usarlo e perché, o sulla opportunità giuridica di impedire del tutto il suo uso. Insomma, nel '900 qualcuno avrebbe potuto chiedere, o addirittura esigere, che le autovetture fossero alimentate a biada, offuscando però il dibattito sulla necessità di installare semafori in città. Questo è il pericolo che vedo nella posizione del Garante italiano. E' ovvio che siamo tutti a disagio davanti al fatto che la conoscenza globale collassi in un solo sistema proprietario, e per di più *intrinsecamente* allucinato. Ma questo sistema è lì così com'è, e più che levare contro di esso grida manzoniane, dovremo pensare seriamente a come farci i conti.
La "posizione" del Garante italiano è semplice e chiara: la Legge è uguale per tutti. Niente di più (purtroppo) e niente di meno. Se un software viene scritto ed amministrato per interagire con esseri umani rispondendo a domande e richieste di questi ultimi, chi ha scritto ed esegue quel software deve rispondere del suo output esattamente come se lo avesse scritto personalmente. Tentare di eludere o aggirare questa responsabilità offende l'intelligenza di chi legge (o ne sfrutta l'ignoranza). Il funzionamento interno di un LLM, le cautele necessarie nel suo impiego, l'opportunità di vietarlo del tutto... sono tutte questioni interessanti, ciascuna delle quali potrebbe meritare un thread a sé. MA sono tutte questioni SECONDARIE rispetto alla questione fondamentale. La Legge deve rimanere uguale per tutti. A nessuno può essere concesso alcun salvacondotto, alcuna immunità, solo per aver impiegato, nel violarla, un automatismo di qualsivoglia natura. Se siamo d'accordo su questo, benissimo! Allora Open AI deve rispondere di ogni eventuale inesattezza nell'output di Chat GPT e deve trovare il modo di garantire la possibilità di rettificare EFFICACEMENTE qualsiasi errore e (se basa i trattamenti di dati personali sul legittimo interesse) deve garantire a ciascuno la possibilità di fare opt-out, rimuovendo tutti i contenuti che lo riguardano e rieseguendo la programmazione statistica (il "training", secondo la vulgata antropomorfica). Se non siamo d'accordo, possiamo discuterne apertamente! Mi piacerebbe molto sentire una chiara argomentazione a favore dell'immunità dalla Legge per coloro che la violano tramite automatismi. Magari mi convinci pure! In fondo a me basta che valga per tutti. Hacker inclusi! ;-) Ciò che però ti chiederei è di evitare argomenti fantoccio. Discutiamo nel merito. Giacomo