Giacomo, anche il LM più puri usati per il più innocente task di classificazione potrebbero essere stati addestrati con dati ottenuti senza il consenso esplicito di chi li ha condivisi, dunque in violazione del GDPR. Che vogliamo fare? Se li usassi per costruire un diffamatore automatico, o un generatore di outing casuale, forse possiamo stabilire che il problema è l'applicazione, non il modello. Questo intendo per 'quadra'. E no, non sto in ansia, se non per il fatto che sotto VPN mi escono gli AD in tedesco :-(( G. On Wed, 12 Apr 2023 at 15:04, 380° <g380@biscuolo.net> wrote:
Buongiorno Guido,
Guido Vetere <vetere.guido@gmail.com> writes:
[...]
dunque chiedo: dobbiamo bandire l'intera pratica dei LLM oppure possiamo trovare una quadra? non fatemi stare in ansia .. :-)
per quello che conta non penso che "bandire l'intera pratica" sia una soluzione sbagliata al problema
su "trovare una quadra" tra "l'intera pratica dei LLM" e il GDPR [1] non sono io a dover rispondere ma chi usa i dati personali per il training (e i re-training) dei modelli
oppure "trovare la quadra" significa /pragmaticamente/ adattare le norme a ciò che si può fare nell'"intera pratica" in esame, oppure applicare eccezioni /ad-machinam/ in funzione della tecnologia adottata?
...non farmi stare in ansia :-D
saluti, 380°
[...]
[1] per rimanere in oggetto, ma ci sono /diversi/ contesti (diffamazione, esercizio abusivo della professione medica, pubblicità ingannevole, ecc?) per i quali i "praticanti" di AI dovrebbero "trovare la quadra"
-- 380° (Giovanni Biscuolo public alter ego)
«Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché»
Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.