Buongiorno,
da fisico (quindi turista del diritto e da semplice 'smanettone' informatico) non sono certo di aver ben compreso su che base si fonda il ragionamento secondo il quale tale tecnologia non sarebbe compatibile con la protezione dei dati personali (la vedo abbastanza come Giacomo, direi). Ammesso e non concesso che lo sia, direi che sarebbe una cattiva notizia per l'Ai sub-simbolica, che andrebbe abbandonata di corsa.
Osservazioni:

  1. non sarebbe la prima volta che l'Ai sub-simbolica viene abbandonata. Basti dire che John McCarthy scriveva che non credeva nella bontà dell'approccio sub-simbolico, che ha già conosciuto un "inverno". E certamente non era uno scettico dell'Ai;
  2. non sarebbe la prima volta che una tecnologia/materiale/sostanza viene abbandonata, senza che questo causi non solo l'arresto del progresso, ma nemmeno l'arresto di un determinato campo tecnologico. Per esempio l'abbandono del piombo come additivo per alimentare i motori a scoppio non ha certo fermato la diffusione di tali motori (purtroppo);
  3. molti, e non da oggi (da oggi non più solo Gary Marcus), pensano che il puro approccio sub-simbolico non basti e che l'Ai dovrebbe evolvere verso qualcosa che sia capace di avere almeno un semplice modello di realtà "embedded", cosa che credo aiuterebbe assai a risolvere il problema in questione.

Insomma, come sempre, There Are Thousands of Alternatives.
Stefano


Inviato con l'email sicura Proton Mail.

lunedì 2 dicembre 2024 23:55, Carlo Blengino <blengino@penalistiassociati.it> ha scritto:
Grazie!
Interessante leggere come da lontano vedano il GDPR e il diritto all'oblio (o quello che è).
La cosa più certa, al di là del caso Mayer, è che, mi pare, il GDPR se interpretato restrittivamente non è compatibile con la tecnologia degli LLM. Punto. Si possono fare un po' di accrocchi, ma di fondo c'è un totale contrasto, su più principi di base. E questo è un problema per l'Europa.
Il caso GEDI https://www.ilsole24ore.com/art/nel-mirino-garante-l-accordo-gedi-openai-AGJLoOTB ne è ulteriore riprova (quell'accordo e tutti gli accordi in atto sono una pessima deriva, sia chiaro, ma per altre ragioni)
Aggiungo a scanso di equivoci, che questa considerazione non vuol dire a mio parere che vi sia incompatibilità tra queste tecnologie ed il sacrosanto diritto fondamentale alla protezione dei dati personali.
CB



Il giorno lun 2 dic 2024 alle ore 22:32 Daniela Tafani <daniela.tafani@unipi.it> ha scritto:
Dec 01, 2024 - Georg Zoeller (AILTI)
The Curious Case of David Mayer, the man ChatGPT cannot name.

ChatGPT users have noticed a curious behavior: It refuses to talk about a 'David Mayer'. We have the explanation and point out less obvious implications.

TL;DR: While not a juicy conspiracy, OpenAI cut some corners on regulatory compliance and the implications are less benign than they seem. In fact, they can be weaponized with unexpected consequences.

ChatGPT is well known for not knowing when to stop talking - the underlying transformer architecture lends itself to hallucinations in situations when the model is asked to generate text beyond the context it was trained on. Even more curious, sometimes it starts giving a response, only to change its mind mid sentence, and terminating the conversation.

So naturally, when the software stops and refuses to answer, users take notice. In this case, ChatGPT users found that mention of the name “David Mayer”, whenever included in a message, would consistently cause the model to terminate the conversation.

It’s a conspiracy!
Creating even more mystery, chatGPT rejection messages quickly move from unhelpful to ominously threatening when the user starts investigating the phenomenon.

Continua qui:
<https://centreforaileadership.org/resources/analysis_the_curious_case_of_one_david_mayer/>


--
Avv. Carlo Blengino

Via Duchessa Jolanda n. 19,
10138 Torino (TO) - Italy
tel. +39 011 4474035
Penalistiassociati.it