Non ho capito bene se questa opposizione riguarderebbe SOLO l'addestramento dei Language model, così come sembra dal seguente passaggio: *Se presenti un'opposizione, invieremo un'e-mail con la conferma che in futuro non utilizzeremo le tue informazioni pubbliche provenienti dai Prodotti di Meta o dalle tue interazioni con le funzioni di IA in Meta per sviluppare e migliorare i modelli di IA generativa per l'IA in Meta.* Ora, io vorrei fortemente oppormi alla mia profilazione, in base alla quale ricevo regolarmente pubblicità di apparecchi acustici, ma non al fatto che la mia prosa possa rafforzare (o indebolire) la correlazione tra un certo avverbio e un certo verbo, o tra questo e i nomi che ne caratterizzano la sua struttura argomentale. Nella misura in cui non possono essere associate al mio profilo, non mi preoccupa neanche la circostanza che il *contenuto* della mia prosa possa indurre certe polarizzazioni ideologiche, anzi ritengo un mio dovere civile portare nei parametri neurali *il vero, il buono e il bello* che esso profonde :-) Fa riflettere invece che Meta non renda disponibili i modelli 'open' della serie LLaMA 4 nell'UE, citando l'imprevedibilità dell'ambiente normativo europeo come motivo principale. Buona Pasqua! G. On Fri, 18 Apr 2025 at 08:00, Stefano Borroni Barale <s.barale@erentil.net> wrote:
Questo annuncio si dimentica di notare la cosa più rilevante: come scrive Meta nella sua informativa se obiettate (cosa che ho fatto immediatamente) esiste un'eccezione.
Se i nostri dati pubblici sono stati "ripubblicati" (p.es. con la funzione "condividi" di Facebook) da qualcuno che non ha espresso uguale obiezione allora il nostro materiale verrà utilizzato COMUNQUE per l'ottimizzazione del loro modello linguistico.
Se, da un lato, questa è probabilmente l'unica soluzione tecnica possibile per non finire in un labirinto senza uscita di accordi/dinieghi, secondo me è rivelatoria delle basi completamente incompatibili con l'attuale diritto di questa operazione.
*Let it sink. *Come dicono gli anglosassoni.
Da un certo punto di vista mi verrebbe da festeggiare: sono da sempre a favore del copyleft: il problema è uno solo. Che il copyright viene abolito per tutti, tranne che per Meta Inc. la quale, una volta creati i pesi del suo LLM grazie ai NOSTRI dati, lo controlla e può invocare misure draconiane fino a limite di instaurare uno stato di polizia, per ottenerne la protezione dal *furto di IP*.
Proprio come ha avuto il coraggio di fare OpenAi quando è comparso su Internet Deepseek, che avrebbe "copiato la loro proprietà intellettuale". Era girata la proposta di *punire con* *il carcere *il semplice download di Deepseek (tra l'altro: qualcuno sa che fine ha fatto?)
A questo punto credo che i giuristi in lista abbiano già compreso dove sto andando a parare: l'UE avrebbe una soluzione molto più onorevole. Permettere la creazione di LLM facendo un'eccezione al principio di minimizzazione della raccolta dati del GDPR e al copyright sotto una semplice condizione: tutto quello che ne esce deve essere Public Domain. Public Domain i pesi iniziali, Public Domain TUTTI i dati utilizzati per l'ottimizzazione, Public Domain i pesi a valle dell'ottimizzazione e licenza libera per il software di creazione della rete neurale.
<TROLL mode ON>
Semplice, lineare e inattaccabile. No? :-)
<TROLL mode OFF> :-) Stefano
Inviato con l'email sicura Proton Mail <https://proton.me/mail/home>.
giovedì 17 aprile 2025 10:59, J.C. DE MARTIN < juancarlos.demartin@polito.it> ha scritto:
*Meta starts AI training with personal data - those who want to object must act quickly*
https://datenschutz-hamburg.de/news/meta-starts-ai-training-with-personal-da...
15 April 2025
Until now, Meta's AI technology has not been trained with the Facebook and Instagram data of European users. This is now set to change: From *the end of May 2025, Meta wants to use the data of all adult European Facebook and Instagram users for training of its own AI applications*. The data will then be used to train the company's AI-based services such as the Meta-AI chatbot on WhatsApp or language models such as Llama. *Start of training planned for 2024 postponed for the time being*
Meta had already announced last year that it would use all public posts and photos from its European Facebook and Instagram users for AI training. *However, Meta then postponed the project *after the Irish Data Protection Authority (IDPC), which is the lead supervisory authority for Meta in the EU, approached the company with data protection issues, particularly regarding the legal basis and transparency. *The procedure that is now in place makes it easier to object *to Meta's use of personal data for AI training. *If users want to object, then now*
Registered users of Facebook and Instagram must now decide whether the company may train AI models with their personal data (posts, photos, etc.). This applies not only to the future, but also to all data from the past.
If you have no concerns about your publicly accessible posts, comments and photos in your own account being used for AI training, you don't have to do anything.
Anyone who wants to prevent their own data from being used by Meta for AI training purposes *must take action now*. All European users of legal age will be notified accordingly by Meta and informed of their options. You can object in the respective apps or for Facebook at https://www.facebook.com/help/contact/712876720715583 and for Instagram at https://help.instagram.com/contact/767264225370182 . For the objection to take full effect, it must be lodged before the end of May 2025. Although it is possible to object at any time after this date, it will no longer be possible to undo that your data has already been used for AI training. Training data is irrevocably incorporated into AI models and its influence can no longer be removed from the model according to the current state of the art.
Thomas Fuchs, Hamburg Commissioner for Data Protection and Freedom of Information: „I can well understand that users are concerned when all their images and texts shared on social networks are now incorporated into AI models. The only way to protect yourself here is to object in good time. If so, then now.“