Anzitutto grazie per il chiarimento sulla base giuridica del trattamento, tutt'altro che ovvia per chi non si occupa di diritto per professione. Ribadisco il mio convincimento che lo scambio fra differenti esperienze e punti di vista (che giocoforza non saranno sempre concordi) sia la scommessa vinta della lista Nexa. Mi permetto solo un commento sulla parte finale, che mi pare contenga uno straw man piuttosto evidente:
Ora, possiamo ritenere che addestrare un LLM sia una attività delinquenziale e truffaldina, e dunque contestare la "legittimità" dell'interesse al trattamento in radice. Qualcuno qui potrebbe sposare questa tesi. Legittimo. Auguri. Ma questo non c'entra nulla con la protezione dei dati e men che meno con la privacy. Non è il GDPR il campo di battaglia per una guerra di tal fatta e non è ciò che pensano i regolatori. Soprattutto occorrerebbe a quel punto vietare a monte quell'attività tout court e rinunciare all'AI.
Non è affatto necessario bollare l'ottimizzazione (1) di LLM come attività truffaldina per sostenere una delle migliaia di alternative (TATA - There Are Thousands of Alternatives), tra cui le seguenti: - potremmo pensare che ottimizzare LLM sia un'attività a scopo di lucro e che, come tutte le attività legittime in una società capitalista in cui il lucro è ben accetto, debba essere sottoposta a una remunerazione dei fornitori di materia prima. In questo framework pienamente favorevole al libero mercato, se Meta vuole i nostri articoli, i nostri pensieri, le nostre parole per il suo Llama ci contatti e saremo ben felici di firmare una licenza per il loro utilizzo. Si potrebbe anche pensare che l'UE faccia questo meritorio lavoro, raccogliendo i dati dei suoi cittadini interessati e vendendoli a Meta. Oppure potrebbero farlo associazioni, imprese, etc generando un bel giro di profitti a vantaggio della floridità dell'asfittico mercato dell'Ai europeo (pun intended); - in alternativa potremmo pensare che il lucro sia la causa di molti dei problemi che abbiamo in questo momento (tra cui lo strapotere di quattro sociopatici libertariani in guerra con il mondo) e che la creazione di LLM di quelle dimensioni sia di per sé una pessima idea, motivo per il quale i nostri dati non saranno disponibili né ora né mai. Perché questo diritto all'opt-out sia effettivamente esercitabile, però, tutta la raccolta dovrebbe essere organizzata in base all'opt-IN e non all'opt-out, perché la clausola di eccezione di fatto rende il nostro opt-out vano o quasi vano; - si potrebbe infine pensare che nonostante siano "20anni che alimentiamo le banche dati delle BigTech US e che diamo consensi ad minchiam per trattare i nostri dati rafforzando potere e monopoli informativi in cambio di servizi discutibili" viviamo nel migliore dei mondi possibili e quindi avanti con l'ottimizzazione di agenti cibernetici automatici il cui scopo piuttosto evidente, qui tra noi credo sia chiaro a tutt*, è l'ulteriore trasferimento di potere dal lavoro al capitale, come è sempre stato per ogni tipo di automazione dai tempi di Wiener. Credo che trovare altre ragioni oltre a 1 per essere radicalmente contrari senza per questo mettere minimamente in discussione un framework capitalista e di libero mercato sia limitato solo dalla fantasia. Stefano (1) addestrare è operazione possibile con agenti cibernetici autonomi, non automatici come i LLM