ChatGPT: domani incontro tra OpenAI e Garante privacy
E’ previsto per domani sera un incontro, in videoconferenza, tra i rappresentanti di OpenAI e il Garante per la protezione dei dati personali, che nei giorni scorsi ha imposto alla piattaforma di limitare temporaneamente il trattamento dei dati degli utenti italiani finché non si sarà messa in regola con la normativa privacy italiana e europea.
L’iniziativa, apprezzata dal Garante, fa seguito alla lettera con cui ieri la società statunitense ha risposto al Garante per esprimere la propria disponibilità immediata a collaborare con l’Autorità italiana al fine di rispettare la disciplina privacy europea e giungere a una soluzione condivisa in grado di risolvere i profili critici sollevati dall’Autorità in merito al trattamento dei dati dei cittadini italiani.
Roma, 4 aprile 2023
Un caro saluto
Mauro
_______________________________________________Al di là dell'iperbole, com'è naturale nell'esempio, se ho colto correttamente il senso della tua domanda, la mia risposta, non giuridica, ma legata alla mia personale personale, è che un disclaimer (se chiaro e comprensibile: né le righe scritte in piccolo delle assicurazioni, né le 50 pagine di certe privacy policy) non solleva dalla responsabilità, ma aiuta certo a condividerla: per quanto un esempio abbia sempre dei limiti, propongo questa situazione: mio figlio di 5 anni è gravemente allergico alle uova. Se mi arrivano delle polpette o una trota al forno, con scritto "non contiene uova" e poi risultano invece presenti la responsabilità è del ristoratore. Ma se arrivano delle uova sode o all'occhio di bue, anche se per sbaglio c'è scritto "senza uova" sono comunque responsabile nel darle al figlio (mi correggano i giuristi se sbaglio), perché devo analizzare criticamente quello che c'è scritto e confrontarlo con quello che c'è nel piatto. Io ho avuto un principio di distacco della retina e un distacco del vitreo: anche se non c'è scritto in biglietteria, so che non devo salire sulle montagne russe o su una giostra che scuote eccessivamente o guidare una formula1, così come se scalo un 4000 devo sapere che l'aria è rarefatta pur senza un cartello all'attacco della via.
L'idea che tutto debba essere descritto, elencato, pensato a prova di idiota creerà un mondo dove solo gli idioti si trovano benissimo, ed è questo il mio più grande timore nei confronti dell'AI: un mondo dove uno studente, un principiante, un apprendista, un pigro non deve pensare, perché c'è un'AI che pensa per lui e tutto viene accettato passivamente.
E qui arrivo alla mail di Marco, con il quale evidentemente siamo in sintonia, anche se abbiamo espresso l'idea in modo diverso: il problema non è la veggente che ti legge il futuro nei fondi del caffè o nelle carte, il problema è che qualcuno le vada dietro. Il problema non è Paolo Fox che a inizio 2020 prevedeva un periodo favorevole per i viaggi nei primi mesi dell'anno, il problema è che, pur dopo la pandemia e il lockdown, continui a stare in TV, perché ancora qualcuno lo segue.
Ecco allora che il mio timore non è che ChatGPT dica - erroneamente - che ho subito una qualche condanna per crimini infamanti, il mio timore è che un giornalista o un datore di lavoro la prenda per buona senza controllare. Peraltro il problema non è nuovo (tanto per dirne una, pensiamo ai diari di Hitler - falsi - che Panorama aveva comprato a caro prezzo) ma l'AI aumenterà enormemente la magnitudo.
Un amico che scriveva un libro, dove parlava tra le altre cose della medaglia di San Benedetto, mi ha chiesto aiuto perché non riusciva a trovare informazioni sulle prime versioni. Ho provato con ChatGPT e, dopo una prima risposta errata, ho riformulato la domanda in linguaggio naturale, come avrei fatto con uno studente, e mi ha scovato varie informazioni. Cambiando la parole chiave su Google e mobilitando alcuni suoi contatti a Norcia ha trovato conferma di ciò che l'AI aveva prodotto, il che mi sembra un ottimo esempio sia di utilità del sistema, che è riuscita dove i motori di ricerca avevano fallito, ma anche di uso responsabile, dato che non si è accettato passivamente l'oracolo ma si è andati a verificare alle fonti d'archivio.
L'AI, per me, è uno strumento come un altro (beh, certo più potente e quindi pericoloso di altri, ma d'altra parte anche la bomba atomica non scherza), che ancora dobbiamo imparare a usare; il fatto che si svilupperà in positivo o meno dipende da noi e in questo senso ben vengano iniziative come quelle del Garante, che, giuste o sbagliate, scritte bene o male, comunque aiutano a tenere alta l'attenzione, come dimostra il vivace dibattito anche su questa lista.
Scusatemi la mail un po' lunga
Un buon fine settimana a tutti e buona Pasqua a voi e famiglieD.
From: nexa <nexa-bounces@server-nexa.polito.it> on behalf of Giacomo Tesio <giacomo@tesio.it>
Sent: Tuesday, April 4, 2023 1:06 PM
To: Guido Vetere <vetere.guido@gmail.com>
Cc: nexa@server-nexa.polito.it <nexa@server-nexa.polito.it>
Subject: Re: [nexa] ChatGPT disabled for users in ItalyCiao Guido, Diego e Nexa,
On Tue, 4 Apr 2023 12:16:48 +0200 Guido Vetere wrote:
> il vostro punto di vista è molto interessante e vi ringrazio per
> averlo esposto con tanta coraggiosa assertività.
:-D
Quando un hacker ti pone delle domande, non pensare di potertela cavare
con una battuta! ;-)
Comunque concordo con Diego: il tuo esempio è molto azzecato.
Purtroppo la domanda che poni è irrilevante.
(e conseguentemente, la risposta che proponi)
> Sono al ristorante con un amico, il menù comprende sei piatti. Io li
> valuto e scelgo quello che preferisco. Il mio amico estrae dalla
> tasca un dado, lo lancia e sceglie il piatto che corrisponde al
> numero che esce.
>
> Domanda: io e il mio amico siamo nella stessa relazione causale
> rispetto a ciò che mangerà?
La relazione causale rispetto a ciò che mangerete è irrilevante.
Ciò che rileva è che entrambi avete scelto liberamente COME selezionare
il vostro menù: tu alla luce di una valutazione gastronomica, lui sulla
base di un automatismo di cui comprende pienamente il funzionamento.
Il tuo amico decide il numero di facce, il numero di lanci, e
conseguentemente la probabilità relativa dei diversi risultati, nonché
l'interpretazione da attribuire a ciascun risultato (si conta dal fondo
o dall'inizio? si sottrae il prodotto fra numero di dadi e lanci al
risultato? etc..)
Il dado è dunque solo uno strumento del tuo amico. Potrebbe farne
tranquillamente a meno, accontentandosi di un numero pensato "a caso".
Per fare un esempio più calzante, ipotiziamo che il cuoco decida gli
ingredienti del vostro pasto sulla base del colore dei vostri vestiti e
di lanci di un dado. Gli ingredienti sono infatti in barattoli
colorati e numerati, ma senza etichetta.
Prima di farvi accomodare, il cameriere robotizzato vi informa
chiaramente che occasionalmente le pietanze potrebbero contenere
combinazioni indigeste o persino tossiche degli ingredienti (ciascuno
di per sé commestibile in isolamento), senza che il cuoco possa in
alcun modo essere ritenuto responsabile per eventuali, occasionali,
decessi.
Voi vi sedete comunque, pensando si tratti di uno scherzo.
In fondo il ristorante è pieno di persone che sembrano assaporare
con grande soddisfazione piatti assolutamente deliziosi.
Alla fine del pasto, il tuo ipotetico amico muore.
Secondo te, il cuoco è responsabile della sua morte?
Il fatto di avervi avvertito con un chiaro disclaimer, allevia la sua
responsabilità penale?
E se la preparazione e la cottura della pietanza fosse completamente
meccanizzata? Ne risponderebbe il proprietario del locale?
E se invece di morire alla fine del pranzo a causa delle sostanze
ingerite, il tuo amico si ammalasse di cancro e gravasse sul servizio
sanitario nazionale per decenni insieme al 5-10% degli avventori del
ristorante?
Laddove un'autorità competente chiedesse conto dei danni prodotti al
proprietario, ti strapperesti le vesti?
Il proprietario del ristorante potrebbe argomentare di che il suo
robot-cuoco non aveva alcuna intenzionalità e che voi che l'avete usato
(peraltro, gratuitamente) eravate stati avvertiti con un chiaro
disclaimer dei rischi?
> Se però consideriamo gli sviluppi dell'IA degli ultimi anni, e in
> particolare i LLM, le cose sono a mio avviso più complesse. Non mi
> inoltro in argomentazioni metafisiche...
Non c'è niente di metafisico in un software programmato statisticamente.
Cambia (in parte) il modo di programmare questi software rispetto alla
programmazione linguistica (imperativa, funzionale, a oggetti etc...)
ma non cambia il fatto che siano programmati: qualcuno li realizza per
riprodurre automaticamente un certo comportamento.
Il fatto che chi li programma dichiari di non avere piena comprensione
del loro funzionamento, li rende semplicemente inutilizzabili.
Ma non c'è alcuna ragione, etica, logica o metafisica, per cui dovremmo
garantire a queste persone (e queste aziende) un salvacondotto dalla
Legge per le violazioni compiute tramite questi agenti cibernetici
automatici.
Loro li costruiscono e li eseguono, dunque loro ne devono rispondere.
Giacomo
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa