Meta starts AI training with personal data - those who want to object must act quickly
*Meta starts AI training with personal data - those who want to object must act quickly* https://datenschutz-hamburg.de/news/meta-starts-ai-training-with-personal-da... 15 April 2025 Until now, Meta's AI technology has not been trained with the Facebook and Instagram data of European users. This is now set to change: From *the end of May 2025, Meta wants to use the data of all adult European Facebook and Instagram users for training of its own AI applications*. The data will then be used to train the company's AI-based services such as the Meta-AI chatbot on WhatsApp or language models such as Llama. *Start of training planned for 2024 postponed for the time being* Meta had already announced last year that it would use all public posts and photos from its European Facebook and Instagram users for AI training. *However, Meta then postponed the project *after the Irish Data Protection Authority (IDPC), which is the lead supervisory authority for Meta in the EU, approached the company with data protection issues, particularly regarding the legal basis and transparency. *The procedure that is now in place makes it easier to object *to Meta's use of personal data for AI training. *If users want to object, then now* Registered users of Facebook and Instagram must now decide whether the company may train AI models with their personal data (posts, photos, etc.). This applies not only to the future, but also to all data from the past. If you have no concerns about your publicly accessible posts, comments and photos in your own account being used for AI training, you don't have to do anything. Anyone who wants to prevent their own data from being used by Meta for AI training purposes *must take action now*. All European users of legal age will be notified accordingly by Meta and informed of their options. You can object in the respective apps or for Facebook at https://www.facebook.com/help/contact/712876720715583 <https://www.facebook.com/help/contact/712876720715583> and for Instagram at https://help.instagram.com/contact/767264225370182 <https://help.instagram.com/contact/767264225370182>. For the objection to take full effect, it must be lodged before the end of May 2025. Although it is possible to object at any time after this date, it will no longer be possible to undo that your data has already been used for AI training. Training data is irrevocably incorporated into AI models and its influence can no longer be removed from the model according to the current state of the art. Thomas Fuchs, Hamburg Commissioner for Data Protection and Freedom of Information: „I can well understand that users are concerned when all their images and texts shared on social networks are now incorporated into AI models. The only way to protect yourself here is to object in good time. If so, then now.“
grazie anche se ho fatto qualche post su facebook nel 2011, comunque vorrei fare opt out il link indicato non mi pare funzionare. a voi ? grazie, s. On 17/04/25 10:59, J.C. DE MARTIN wrote:
Anyone who wants to prevent their own data from being used by Meta for AI training purposes *must take action now*. All European users of legal age will be notified accordingly by Meta and informed of their options. You can object in the respective apps or for Facebook at https:// www.facebook.com/help/contact/712876720715583 <https://www.facebook.com/ help/contact/712876720715583> and for Instagram at https:// help.instagram.com/contact/767264225370182 <https://help.instagram.com/ contact/767264225370182>.
-- You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)
ciao, ti fanno riloggare ma poi funziona, almeno per me è stato così Josephine Il giorno gio 17 apr 2025 alle ore 12:21 Stefano Quintarelli via nexa < nexa@server-nexa.polito.it> ha scritto:
grazie anche se ho fatto qualche post su facebook nel 2011, comunque vorrei fare opt out il link indicato non mi pare funzionare. a voi ?
grazie, s.
On 17/04/25 10:59, J.C. DE MARTIN wrote:
Anyone who wants to prevent their own data from being used by Meta for AI training purposes *must take action now*. All European users of legal age will be notified accordingly by Meta and informed of their options. You can object in the respective apps or for Facebook at https:// www.facebook.com/help/contact/712876720715583 <https://www.facebook.com/ help/contact/712876720715583> and for Instagram at https:// help.instagram.com/contact/767264225370182 <https://help.instagram.com/ contact/767264225370182>.
-- You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)
Si confermo anche io, bisogna loggarsi sui singoli social (Facebook e Instagram) e andare sulle impostazioni della privacy, li si trova un form in cui si chiede l'opt out e si può inserire facoltativamente una motivazione. Invece per whatsapp la procedura è molto più complessa, si arriva lo stesso a un modulo di obiezione ma compilandolo ti viene poi inviata una mail alla quale devi rispondere, e il contenuto della mail è: "Hi, Thanks for your message. In order for us to review your objection, please reply to this email with the following information: - What information processing you are objecting to. Your right to object applies where we rely on legitimate interest to process your information. - How WhatsApp’s processing of this information impacts you (example: what rights and freedoms you believe are impacted by the processing and why) - Any additional information you believe will help us review your objection (optional) We may ask you for more information if your request is incomplete. Thanks, WhatsApp Privacy Operations" Il gio 17 apr 2025, 14:30 Josephine Condemi <josephine.condemi@gmail.com> ha scritto:
ciao, ti fanno riloggare ma poi funziona, almeno per me è stato così Josephine
Il giorno gio 17 apr 2025 alle ore 12:21 Stefano Quintarelli via nexa < nexa@server-nexa.polito.it> ha scritto:
grazie anche se ho fatto qualche post su facebook nel 2011, comunque vorrei fare opt out il link indicato non mi pare funzionare. a voi ?
grazie, s.
On 17/04/25 10:59, J.C. DE MARTIN wrote:
Anyone who wants to prevent their own data from being used by Meta for AI training purposes *must take action now*. All European users of legal age will be notified accordingly by Meta and informed of their options. You can object in the respective apps or for Facebook at https:// www.facebook.com/help/contact/712876720715583 < https://www.facebook.com/ help/contact/712876720715583> and for Instagram at https:// help.instagram.com/contact/767264225370182 <https://help.instagram.com/ contact/767264225370182>.
-- You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)
Il 17/04/25 14:34, Fosco Bugoni ha scritto:
Invece per whatsapp la procedura è molto più complessa, si parte da qui:https://faq.whatsapp.com/781249240131848/
in quella pagina cliccare _qui_ porta a https://www.whatsapp.com/contact/forms/382532939919295/ in quella pagina cliccare su _modulo_ porta qui: https://www.whatsapp.com/contact/forms/382532939919295/ in quella pagina si sceglie "Come posso presentare un'obiezione al trattamento delle mie informazioni?" poi si sceglie "Voglio presentare un'obiezione" a quel punto chiedono indirizzo email e num di tel whatsapp, perché mandano una mail che chiede di presentare l’obiezione: "Hi, Thanks for your message. In order for us to review your objection, please reply to this email with the following information: - What information processing you are objecting to. Your right to object applies where we rely on legitimate interest to process your information. - How WhatsApp’s processing of this information impacts you (example: what rights and freedoms you believe are impacted by the processing and why) - Any additional informationyou believe will help us review your objection (optional) We may ask you for more information if your request is incomplete.” quanto a cosa rispondere, l’utente Reddit ilmatar91 <https://www.reddit.com/user/ilmatar91/> ha scritto: Ho ottenuto che la mia obiezione venisse accolta usando questo: “The use of my data infringes on my rights as an EU citizen, I will not allow for my data to be used for AI training, improvement or a more personalized experience. I have the right to keep my data private as per the European GDPR law.” Nella casella di informazioni aggiuntive: “Should my objection request not be accepted, I will discontinue my use of all Meta products indefinitely.” io ho scritto così: -What information processing you are objecting to. Your right to object applies where we rely on legitimate interest to process your information. For the reasons below I object to any and every information processing finalized to, or employing, AI systems -How WhatsApp’s processing of this information impacts you (example: what rights and freedoms you believe are impacted by the processing and why) The use of my data infringes on my rights as an EU citizen, I will not allow for my data to be used for AI training, improvement or a more personalized experience. I have the right to keep my data private as per the European GDPR law. -Any additional information you believe will help us review your objection Should my objection request not be accepted, I will discontinue my use of all Meta products indefinitely ho già avuto una replica (automatica, direi) a cui ho risposto così: Il 18/04/25 00:29, WhatsApp ha scritto:
To help us understand, could you please explain the issue in more detail? Screenshots or screen recordings will help too. the compliance to GDPR is not a matter of explanation. it is a law that you must obey to if you want to operate in EU
Maurizio ------------------------------------------------------------------------ nel mondo di pianura ti illudi di essere sul gradino più alto, qui invece sei più o meno alla pari K. Kassabova, Anima ------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Grazie, è utilissimo. Provo a rifare la procedura con risposte analoghe. Ieri avevo motivato diversamente e in risposta mi avevano rimbalzato a link con lunghissime informative e in sostanza non accettando la mia obiezione. Il ven 18 apr 2025, 00:45 maurizio lana <maurizio.lana@uniupo.it> ha scritto:
Il 17/04/25 14:34, Fosco Bugoni ha scritto:
Invece per whatsapp la procedura è molto più complessa,
si parte da qui:https://faq.whatsapp.com/781249240131848/
in quella pagina cliccare *qui* porta a https://www.whatsapp.com/contact/forms/382532939919295/
in quella pagina cliccare su *modulo* porta qui: https://www.whatsapp.com/contact/forms/382532939919295/
in quella pagina si sceglie "Come posso presentare un'obiezione al trattamento delle mie informazioni?"
poi si sceglie "Voglio presentare un'obiezione"
a quel punto chiedono indirizzo email e num di tel whatsapp, perché mandano una mail che chiede di presentare l’obiezione:
"Hi,
Thanks for your message.
In order for us to review your objection, please reply to this email with the following information:
- What information processing you are objecting to. Your right to object applies where we rely on legitimate interest to process your information.
- How WhatsApp’s processing of this information impacts you (example: what rights and freedoms you believe are impacted by the processing and why)
- Any additional information you believe will help us review your objection (optional)
We may ask you for more information if your request is incomplete.”
quanto a cosa rispondere, l’utente Reddit ilmatar91 <https://www.reddit.com/user/ilmatar91/> ha scritto:
Ho ottenuto che la mia obiezione venisse accolta usando questo:
“The use of my data infringes on my rights as an EU citizen, I will not allow for my data to be used for AI training, improvement or a more personalized experience. I have the right to keep my data private as per the European GDPR law.”
Nella casella di informazioni aggiuntive: “Should my objection request not be accepted, I will discontinue my use of all Meta products indefinitely.”
io ho scritto così:
- What information processing you are objecting to. Your right to object applies where we rely on legitimate interest to process your information.
For the reasons below I object to any and every information processing finalized to, or employing, AI systems
- How WhatsApp’s processing of this information impacts you (example: what rights and freedoms you believe are impacted by the processing and why)
The use of my data infringes on my rights as an EU citizen, I will not allow for my data to be used for AI training, improvement or a more personalized experience. I have the right to keep my data private as per the European GDPR law.
- Any additional information you believe will help us review your objection
Should my objection request not be accepted, I will discontinue my use of all Meta products indefinitely
ho già avuto una replica (automatica, direi) a cui ho risposto così:
Il 18/04/25 00:29, WhatsApp ha scritto:
To help us understand, could you please explain the issue in more detail? Screenshots or screen recordings will help too.
the compliance to GDPR is not a matter of explanation. it is a law that you must obey to if you want to operate in EU
Maurizio
------------------------------
nel mondo di pianura ti illudi di essere sul gradino più alto, qui invece sei più o meno alla pari K. Kassabova, Anima
------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli <https://www.google.com/maps/search/Piazza+Roma+36+-+13100+Vercelli?entry=gma...>
Alcune precisazioni in diritto e alcune considerazioni sul tema. WhatsApp non c'entra nulla con l'annuncio di Meta, salvo sembrerebbe (ma l'annuncio non è chiarissimo) per le interazioni con il loro chatbot, cioè per le conversazioni dirette con l'AI stessa, usate per addestramento (ritengo nel caso su diversa base giuridica). Il trattamento annunciato *riguarda solo i post pubblici di Instagram e di Facebook.* D'altra parte non potrebbe esser altrimenti posto che un servizio di comunicazione elettronica (per di più criptato) come WhatsApp incontra limiti insuperabili prima ancora che nel diritto alla protezione dei dati, nella riservatezza della corrispondenza che è cosa molto diversa e diversamente normata. Il trattamento per finalità di addestramento annunciato -e bisogna date atto che Meta almeno lo ha annunciato con grande anticipo a differenza di altri, interloquendo con il suo Garante- *è solo su dati che sono disponibili a chiunque sul web, per espressa volontà di chi li ha appunto resi pubblici, che spesso è l'interessato stesso.* La circostanza è giuridicamente assai rilevante come si vedrà. La privacy (rectius: la riservatezza) qui infatti non c'entra nulla, come non c'entra la profilazione e le mille porcherie che fanno con i nostri dati. E' un problema relativo solo a contenuti pubblici, divulgati volontariamente sul web dai titolari degli account attraverso i servizi Meta; contenuti che potenzialmente contengono dati personali, ovviamente anche di terzi. Su questi dati personali pubblici noi cittadini abbiamo, in caso di legittima pubblicazione, unicamente il diritto a che siano trattati conformemente al GDPR, nel rispetto del diritto fondamentale dell'Art.8 della Carta UE. Sui nostri dati personali, è bene ripeterlo, non abbiamo nessuna "privativa" e nessun diritto di proprietà o di sfruttamento economico. Non confondiamo dunque il diritto alla protezione dei dati personali con una specie di inesistente copyright sui nostri dati, che ci manca solo questo in UE... Vero è, come osserva Stefano B.B., che l'utilizzo di tutti i contenuti pubblici pone anche problemi di copyright, ma questa è tutta un'altra storia, già in parte affrontata in lista e ad oggi irrisolta (btw:per me c'è eccezione in UE e non c'è violazione). Ora, sotto il profilo della protezione dati, il trattamento annunciato da Meta è conforme alla normativa? Vediamo ciò che si sa. Dichiarata la finalità, Meta ha individuato la base giuridica nel legittimo interesse (Art.6 lett.f), che è una base giuridica che vale esattamente come il vecchio e sopravvalutato consenso, che ci piace tanto ma che ha dato, sin dal 1995, pessima prova di sé (nel senso che sappiamo benissimo che non funziona). Il Legittimo interesse è base giuridica complessa i cui confini sono però ben delineati nelle chiare linee guida emesse dall'EDPB (Guideline 1/2024 - https://www.edpb.europa.eu/system/files/2024-10/edpb_guidelines_202401_legit... ) che, per quanto ne sappiamo, Meta ha seguito, con costanti interlocuzioni con il Garante Irlandese (a differenza di altri provider!). E' stato fatto -non possiamo dubitarne posto l'intervento dei Garanti sin dal primo annuncio del 2024- quel delicato giudizio di bilanciamento tra i diritti dell'interessato e appunto l'interesse legittimo al trattamento (l'addestramento dei modelli) con i noti tre passaggi e con l'applicazione dei relativi criteri individuati dall'EDPB, tra cui immagino abbia pesato il fatto che si tratti di dati resi pubblici volontariamente, usualmente dall'interessato stesso e, secondo quanto si legge, i contenuti utilizzati non saranno collegati ai singoli account. Il trattamento pare dunque conforme all'art.8 comma 2 della Carta UE: è "leale" (dichiarato, noto e conforme alla legge), per una "finalità determinata" (l'addestramento) e poggia su un "fondamento legittimo stabilito dalla legge" (il legittimo interesse ex art.6 lett.f GDPR). Inoltre, poiché quella base giuridica, il legittimo interesse, prevede all'art. 21 GDPR il diritto di opposizione da parte degli interessati "*per motivi connessi alla propria situazione particolare"* (così l'art.21), è stato previsto il famoso modulo che teoricamente, ai sensi appunto dell'art.21, dovrebbe contenere una spiegazione della "situazione particolare" che giustifica l'opposizione *ad un trattamento ex sé lecito*. Ora, nel caso, data la portata del trattamento (massivo e diffuso) l'opposizione è stata impostata come un semplice opt-out, senza necessità di motivazione alcuna. Una scelta di buon senso che però il GDPR non aveva previsto: come spesso accade, le normative faticano a seguire l'evoluzione tecnologica e le interpretazioni aiutano a trovare giusti equilibri. Bene, le Autority servono, ogni tanto. Il modulo di WhatsApp di cui si è parlato sopra è diverso da quello di Instagram e Facebook proprio perchè è rimasto coerente con il GDPR ed è il vecchio modulo generico ex art. 21; su quel modulo come fa notare Fosco Bugoni, devi specificare a quale trattamento ti opponi e qual è la tua "particolare situazione" a giustificazione dell'opposizione. Ma su WhatsApp non ci sono contenuti pubblici a rischio trattamento per addestramento e le conversazioni con il chatbot (unico utilizzo che sembrerebbe coinvolgere l'app. di messaggistica) mi pare abbia base giuridica diversa. Per questo credo non sia stato aggiornato. Questa, la situazione in diritto. Lecita. Ora, possiamo ritenere che addestrare un LLM sia una attività delinquenziale e truffaldina, e dunque contestare la "legittimità" dell'interesse al trattamento in radice. Qualcuno qui potrebbe sposare questa tesi. Legittimo. Auguri. Ma questo non c'entra nulla con la protezione dei dati e men che meno con la privacy. Non è il GDPR il campo di battaglia per una guerra di tal fatta e non è ciò che pensano i regolatori. Soprattutto occorrerebbe a quel punto vietare a monte quell'attività tout court e rinunciare all'AI. Oppure, ritenuto legittimo l'interesse di Meta e lecito il trattamento proposto, possiamo e dobbiamo capire qual è la ragione per cui dovremmo opporci con l'opt-out. A me pare che le ragioni per opporsi non abbiano ancora una volta nulla a che fare con la nostra privacy (sono dati pubblici) e poco abbiano a che fare con la protezione dei dati personali e con possibili violazioni di diritti e libertà fondamentali (il trattamento mi pare conforme a normativa e i contenuti non saranno collegati agli account). Sono 20anni che alimentiamo le banche dati delle BigTech US e che diamo consensi ad minchiam per trattare i nostri dati rafforzando potere e monopoli informativi in cambio di servizi discutibili ed è vero che il vantaggio competitivo di chi i dati li ha già è un problema enorme nel settore dell'AI. Però non sono affatto sicuro che l'iniziativa di Meta meriti la levata di scudi a cui assistiamo: avere LLM meglio addestrati sui dati europei non mi pare una iattura. Io ci ho riflettuto. E' un discorso scivoloso ed assai complesso, ma io non eserciterò l'opt-out. Carlo Il giorno ven 18 apr 2025 alle ore 00:38 maurizio lana < maurizio.lana@uniupo.it> ha scritto:
Il 17/04/25 14:34, Fosco Bugoni ha scritto:
Invece per whatsapp la procedura è molto più complessa,
si parte da qui:https://faq.whatsapp.com/781249240131848/
in quella pagina cliccare *qui* porta a https://www.whatsapp.com/contact/forms/382532939919295/
in quella pagina cliccare su *modulo* porta qui: https://www.whatsapp.com/contact/forms/382532939919295/
in quella pagina si sceglie "Come posso presentare un'obiezione al trattamento delle mie informazioni?"
poi si sceglie "Voglio presentare un'obiezione"
a quel punto chiedono indirizzo email e num di tel whatsapp, perché mandano una mail che chiede di presentare l’obiezione:
"Hi,
Thanks for your message.
In order for us to review your objection, please reply to this email with the following information:
- What information processing you are objecting to. Your right to object applies where we rely on legitimate interest to process your information.
- How WhatsApp’s processing of this information impacts you (example: what rights and freedoms you believe are impacted by the processing and why)
- Any additional information you believe will help us review your objection (optional)
We may ask you for more information if your request is incomplete.”
quanto a cosa rispondere, l’utente Reddit ilmatar91 <https://www.reddit.com/user/ilmatar91/> ha scritto:
Ho ottenuto che la mia obiezione venisse accolta usando questo:
“The use of my data infringes on my rights as an EU citizen, I will not allow for my data to be used for AI training, improvement or a more personalized experience. I have the right to keep my data private as per the European GDPR law.”
Nella casella di informazioni aggiuntive: “Should my objection request not be accepted, I will discontinue my use of all Meta products indefinitely.”
io ho scritto così:
- What information processing you are objecting to. Your right to object applies where we rely on legitimate interest to process your information.
For the reasons below I object to any and every information processing finalized to, or employing, AI systems
- How WhatsApp’s processing of this information impacts you (example: what rights and freedoms you believe are impacted by the processing and why)
The use of my data infringes on my rights as an EU citizen, I will not allow for my data to be used for AI training, improvement or a more personalized experience. I have the right to keep my data private as per the European GDPR law.
- Any additional information you believe will help us review your objection
Should my objection request not be accepted, I will discontinue my use of all Meta products indefinitely
ho già avuto una replica (automatica, direi) a cui ho risposto così:
Il 18/04/25 00:29, WhatsApp ha scritto:
To help us understand, could you please explain the issue in more detail? Screenshots or screen recordings will help too.
the compliance to GDPR is not a matter of explanation. it is a law that you must obey to if you want to operate in EU
Maurizio
------------------------------
nel mondo di pianura ti illudi di essere sul gradino più alto, qui invece sei più o meno alla pari K. Kassabova, Anima
------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
-- *Avv. Carlo Blengino* *Via Duchessa Jolanda n. 19,* *10138 Torino (TO) - Italy* *tel. +39 011 4474035* Penalistiassociati.it
Anzitutto grazie per il chiarimento sulla base giuridica del trattamento, tutt'altro che ovvia per chi non si occupa di diritto per professione. Ribadisco il mio convincimento che lo scambio fra differenti esperienze e punti di vista (che giocoforza non saranno sempre concordi) sia la scommessa vinta della lista Nexa. Mi permetto solo un commento sulla parte finale, che mi pare contenga uno straw man piuttosto evidente:
Ora, possiamo ritenere che addestrare un LLM sia una attività delinquenziale e truffaldina, e dunque contestare la "legittimità" dell'interesse al trattamento in radice. Qualcuno qui potrebbe sposare questa tesi. Legittimo. Auguri. Ma questo non c'entra nulla con la protezione dei dati e men che meno con la privacy. Non è il GDPR il campo di battaglia per una guerra di tal fatta e non è ciò che pensano i regolatori. Soprattutto occorrerebbe a quel punto vietare a monte quell'attività tout court e rinunciare all'AI.
Non è affatto necessario bollare l'ottimizzazione (1) di LLM come attività truffaldina per sostenere una delle migliaia di alternative (TATA - There Are Thousands of Alternatives), tra cui le seguenti: - potremmo pensare che ottimizzare LLM sia un'attività a scopo di lucro e che, come tutte le attività legittime in una società capitalista in cui il lucro è ben accetto, debba essere sottoposta a una remunerazione dei fornitori di materia prima. In questo framework pienamente favorevole al libero mercato, se Meta vuole i nostri articoli, i nostri pensieri, le nostre parole per il suo Llama ci contatti e saremo ben felici di firmare una licenza per il loro utilizzo. Si potrebbe anche pensare che l'UE faccia questo meritorio lavoro, raccogliendo i dati dei suoi cittadini interessati e vendendoli a Meta. Oppure potrebbero farlo associazioni, imprese, etc generando un bel giro di profitti a vantaggio della floridità dell'asfittico mercato dell'Ai europeo (pun intended); - in alternativa potremmo pensare che il lucro sia la causa di molti dei problemi che abbiamo in questo momento (tra cui lo strapotere di quattro sociopatici libertariani in guerra con il mondo) e che la creazione di LLM di quelle dimensioni sia di per sé una pessima idea, motivo per il quale i nostri dati non saranno disponibili né ora né mai. Perché questo diritto all'opt-out sia effettivamente esercitabile, però, tutta la raccolta dovrebbe essere organizzata in base all'opt-IN e non all'opt-out, perché la clausola di eccezione di fatto rende il nostro opt-out vano o quasi vano; - si potrebbe infine pensare che nonostante siano "20anni che alimentiamo le banche dati delle BigTech US e che diamo consensi ad minchiam per trattare i nostri dati rafforzando potere e monopoli informativi in cambio di servizi discutibili" viviamo nel migliore dei mondi possibili e quindi avanti con l'ottimizzazione di agenti cibernetici automatici il cui scopo piuttosto evidente, qui tra noi credo sia chiaro a tutt*, è l'ulteriore trasferimento di potere dal lavoro al capitale, come è sempre stato per ogni tipo di automazione dai tempi di Wiener. Credo che trovare altre ragioni oltre a 1 per essere radicalmente contrari senza per questo mettere minimamente in discussione un framework capitalista e di libero mercato sia limitato solo dalla fantasia. Stefano (1) addestrare è operazione possibile con agenti cibernetici autonomi, non automatici come i LLM
Questo annuncio si dimentica di notare la cosa più rilevante: come scrive Meta nella sua informativa se obiettate (cosa che ho fatto immediatamente) esiste un'eccezione. Se i nostri dati pubblici sono stati "ripubblicati" (p.es. con la funzione "condividi" di Facebook) da qualcuno che non ha espresso uguale obiezione allora il nostro materiale verrà utilizzato COMUNQUE per l'ottimizzazione del loro modello linguistico. Se, da un lato, questa è probabilmente l'unica soluzione tecnica possibile per non finire in un labirinto senza uscita di accordi/dinieghi, secondo me è rivelatoria delle basi completamente incompatibili con l'attuale diritto di questa operazione. Let it sink. Come dicono gli anglosassoni. Da un certo punto di vista mi verrebbe da festeggiare: sono da sempre a favore del copyleft: il problema è uno solo. Che il copyright viene abolito per tutti, tranne che per Meta Inc. la quale, una volta creati i pesi del suo LLM grazie ai NOSTRI dati, lo controlla e può invocare misure draconiane fino a limite di instaurare uno stato di polizia, per ottenerne la protezione dal furto di IP. Proprio come ha avuto il coraggio di fare OpenAi quando è comparso su Internet Deepseek, che avrebbe "copiato la loro proprietà intellettuale". Era girata la proposta di punire con il carcere il semplice downloaddi Deepseek (tra l'altro: qualcuno sa che fine ha fatto?) A questo punto credo che i giuristi in lista abbiano già compreso dove sto andando a parare: l'UE avrebbe una soluzione molto più onorevole. Permettere la creazione di LLM facendo un'eccezione al principio di minimizzazione della raccolta dati del GDPR e al copyright sotto una semplice condizione: tutto quello che ne esce deve essere Public Domain. Public Domain i pesi iniziali, Public Domain TUTTI i dati utilizzati per l'ottimizzazione, Public Domain i pesi a valle dell'ottimizzazione e licenza libera per il software di creazione della rete neurale. <TROLL mode ON> Semplice, lineare e inattaccabile. No? :-) <TROLL mode OFF> :-) Stefano Inviato con l'email sicura [Proton Mail](https://proton.me/mail/home). giovedì 17 aprile 2025 10:59, J.C. DE MARTIN <juancarlos.demartin@polito.it> ha scritto:
Meta starts AI training with personal data - those who want to object must act quickly
https://datenschutz-hamburg.de/news/meta-starts-ai-training-with-personal-da...
15 April 2025
Until now, Meta's AI technology has not been trained with the Facebook and Instagram data of European users. This is now set to change: From the end of May 2025, Meta wants to use the data of all adult European Facebook and Instagram users for training of its own AI applications. The data will then be used to train the company's AI-based services such as the Meta-AI chatbot on WhatsApp or language models such as Llama.
Start of training planned for 2024 postponed for the time being
Meta had already announced last year that it would use all public posts and photos from its European Facebook and Instagram users for AI training. However, Meta then postponed the project after the Irish Data Protection Authority (IDPC), which is the lead supervisory authority for Meta in the EU, approached the company with data protection issues, particularly regarding the legal basis and transparency. The procedure that is now in place makes it easier to object to Meta's use of personal data for AI training.
If users want to object, then now
Registered users of Facebook and Instagram must now decide whether the company may train AI models with their personal data (posts, photos, etc.). This applies not only to the future, but also to all data from the past.
If you have no concerns about your publicly accessible posts, comments and photos in your own account being used for AI training, you don't have to do anything.
Anyone who wants to prevent their own data from being used by Meta for AI training purposes must take action now. All European users of legal age will be notified accordingly by Meta and informed of their options. You can object in the respective apps or for Facebook at https://www.facebook.com/help/contact/712876720715583 and for Instagram at https://help.instagram.com/contact/767264225370182. For the objection to take full effect, it must be lodged before the end of May 2025. Although it is possible to object at any time after this date, it will no longer be possible to undo that your data has already been used for AI training. Training data is irrevocably incorporated into AI models and its influence can no longer be removed from the model according to the current state of the art.
Thomas Fuchs, Hamburg Commissioner for Data Protection and Freedom of Information: „I can well understand that users are concerned when all their images and texts shared on social networks are now incorporated into AI models. The only way to protect yourself here is to object in good time. If so, then now.“
Non ho capito bene se questa opposizione riguarderebbe SOLO l'addestramento dei Language model, così come sembra dal seguente passaggio: *Se presenti un'opposizione, invieremo un'e-mail con la conferma che in futuro non utilizzeremo le tue informazioni pubbliche provenienti dai Prodotti di Meta o dalle tue interazioni con le funzioni di IA in Meta per sviluppare e migliorare i modelli di IA generativa per l'IA in Meta.* Ora, io vorrei fortemente oppormi alla mia profilazione, in base alla quale ricevo regolarmente pubblicità di apparecchi acustici, ma non al fatto che la mia prosa possa rafforzare (o indebolire) la correlazione tra un certo avverbio e un certo verbo, o tra questo e i nomi che ne caratterizzano la sua struttura argomentale. Nella misura in cui non possono essere associate al mio profilo, non mi preoccupa neanche la circostanza che il *contenuto* della mia prosa possa indurre certe polarizzazioni ideologiche, anzi ritengo un mio dovere civile portare nei parametri neurali *il vero, il buono e il bello* che esso profonde :-) Fa riflettere invece che Meta non renda disponibili i modelli 'open' della serie LLaMA 4 nell'UE, citando l'imprevedibilità dell'ambiente normativo europeo come motivo principale. Buona Pasqua! G. On Fri, 18 Apr 2025 at 08:00, Stefano Borroni Barale <s.barale@erentil.net> wrote:
Questo annuncio si dimentica di notare la cosa più rilevante: come scrive Meta nella sua informativa se obiettate (cosa che ho fatto immediatamente) esiste un'eccezione.
Se i nostri dati pubblici sono stati "ripubblicati" (p.es. con la funzione "condividi" di Facebook) da qualcuno che non ha espresso uguale obiezione allora il nostro materiale verrà utilizzato COMUNQUE per l'ottimizzazione del loro modello linguistico.
Se, da un lato, questa è probabilmente l'unica soluzione tecnica possibile per non finire in un labirinto senza uscita di accordi/dinieghi, secondo me è rivelatoria delle basi completamente incompatibili con l'attuale diritto di questa operazione.
*Let it sink. *Come dicono gli anglosassoni.
Da un certo punto di vista mi verrebbe da festeggiare: sono da sempre a favore del copyleft: il problema è uno solo. Che il copyright viene abolito per tutti, tranne che per Meta Inc. la quale, una volta creati i pesi del suo LLM grazie ai NOSTRI dati, lo controlla e può invocare misure draconiane fino a limite di instaurare uno stato di polizia, per ottenerne la protezione dal *furto di IP*.
Proprio come ha avuto il coraggio di fare OpenAi quando è comparso su Internet Deepseek, che avrebbe "copiato la loro proprietà intellettuale". Era girata la proposta di *punire con* *il carcere *il semplice download di Deepseek (tra l'altro: qualcuno sa che fine ha fatto?)
A questo punto credo che i giuristi in lista abbiano già compreso dove sto andando a parare: l'UE avrebbe una soluzione molto più onorevole. Permettere la creazione di LLM facendo un'eccezione al principio di minimizzazione della raccolta dati del GDPR e al copyright sotto una semplice condizione: tutto quello che ne esce deve essere Public Domain. Public Domain i pesi iniziali, Public Domain TUTTI i dati utilizzati per l'ottimizzazione, Public Domain i pesi a valle dell'ottimizzazione e licenza libera per il software di creazione della rete neurale.
<TROLL mode ON>
Semplice, lineare e inattaccabile. No? :-)
<TROLL mode OFF> :-) Stefano
Inviato con l'email sicura Proton Mail <https://proton.me/mail/home>.
giovedì 17 aprile 2025 10:59, J.C. DE MARTIN < juancarlos.demartin@polito.it> ha scritto:
*Meta starts AI training with personal data - those who want to object must act quickly*
https://datenschutz-hamburg.de/news/meta-starts-ai-training-with-personal-da...
15 April 2025
Until now, Meta's AI technology has not been trained with the Facebook and Instagram data of European users. This is now set to change: From *the end of May 2025, Meta wants to use the data of all adult European Facebook and Instagram users for training of its own AI applications*. The data will then be used to train the company's AI-based services such as the Meta-AI chatbot on WhatsApp or language models such as Llama. *Start of training planned for 2024 postponed for the time being*
Meta had already announced last year that it would use all public posts and photos from its European Facebook and Instagram users for AI training. *However, Meta then postponed the project *after the Irish Data Protection Authority (IDPC), which is the lead supervisory authority for Meta in the EU, approached the company with data protection issues, particularly regarding the legal basis and transparency. *The procedure that is now in place makes it easier to object *to Meta's use of personal data for AI training. *If users want to object, then now*
Registered users of Facebook and Instagram must now decide whether the company may train AI models with their personal data (posts, photos, etc.). This applies not only to the future, but also to all data from the past.
If you have no concerns about your publicly accessible posts, comments and photos in your own account being used for AI training, you don't have to do anything.
Anyone who wants to prevent their own data from being used by Meta for AI training purposes *must take action now*. All European users of legal age will be notified accordingly by Meta and informed of their options. You can object in the respective apps or for Facebook at https://www.facebook.com/help/contact/712876720715583 and for Instagram at https://help.instagram.com/contact/767264225370182 . For the objection to take full effect, it must be lodged before the end of May 2025. Although it is possible to object at any time after this date, it will no longer be possible to undo that your data has already been used for AI training. Training data is irrevocably incorporated into AI models and its influence can no longer be removed from the model according to the current state of the art.
Thomas Fuchs, Hamburg Commissioner for Data Protection and Freedom of Information: „I can well understand that users are concerned when all their images and texts shared on social networks are now incorporated into AI models. The only way to protect yourself here is to object in good time. If so, then now.“
la giustificazione "ambiente normativo europeo" e' come il beige, sta bene con tutto. buona Pasqua On 18/04/25 09:32, Guido Vetere wrote:
Fa riflettere invece che Meta non renda disponibili i modelli 'open' della serie LLaMA 4 nell'UE, citando l'imprevedibilità dell'ambiente normativo europeo come motivo principale.
-- You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)
a me sembra un pasticcio, o sbaglio ? in un gruppo whatsapp di 10 persone, se 9 fanno opt out ed uno no, ad esempio perche' non usa piu' whatsapp, tutte e 9 si vedono i propri dati riversati in un LLM, pronti a risaltar fuori al primo jailbraking. o sbaglio ad interpretare ? (domanda non retorica) grazie!, s. On 18/04/25 08:00, Stefano Borroni Barale wrote:
Questo annuncio si dimentica di notare la cosa più rilevante: come scrive Meta nella sua informativa se obiettate (cosa che ho fatto immediatamente) esiste un'eccezione.
Se i nostri dati pubblici sono stati "ripubblicati" (p.es. con la funzione "condividi" di Facebook) da qualcuno che non ha espresso uguale obiezione allora il nostro materiale verrà utilizzato COMUNQUE per l'ottimizzazione del loro modello linguistico.
Se, da un lato, questa è probabilmente l'unica soluzione tecnica possibile per non finire in un labirinto senza uscita di accordi/ dinieghi, secondo me è rivelatoria delle basi completamente incompatibili con l'attuale diritto di questa operazione.
/Let it sink. /Come dicono gli anglosassoni.
Da un certo punto di vista mi verrebbe da festeggiare: sono da sempre a favore del copyleft: il problema è uno solo. Che il copyright viene abolito per tutti, tranne che per Meta Inc. la quale, una volta creati i pesi del suo LLM grazie ai NOSTRI dati, lo controlla e può invocare misure draconiane fino a limite di instaurare uno stato di polizia, per ottenerne la protezione dal /furto di IP/.
Proprio come ha avuto il coraggio di fare OpenAi quando è comparso su Internet Deepseek, che avrebbe "copiato la loro proprietà intellettuale". Era girata la proposta di /punire con/ /il carcere /il semplice download//di Deepseek (tra l'altro: qualcuno sa che fine ha fatto?)
A questo punto credo che i giuristi in lista abbiano già compreso dove sto andando a parare: l'UE avrebbe una soluzione molto più onorevole. Permettere la creazione di LLM facendo un'eccezione al principio di minimizzazione della raccolta dati del GDPR e al copyright sotto una semplice condizione: tutto quello che ne esce deve essere Public Domain. Public Domain i pesi iniziali, Public Domain TUTTI i dati utilizzati per l'ottimizzazione, Public Domain i pesi a valle dell'ottimizzazione e licenza libera per il software di creazione della rete neurale.
<TROLL mode ON>
Semplice, lineare e inattaccabile. No? :-)
<TROLL mode OFF> :-) Stefano
Inviato con l'email sicura Proton Mail <https://proton.me/mail/home>.
giovedì 17 aprile 2025 10:59, J.C. DE MARTIN <juancarlos.demartin@polito.it> ha scritto:
*Meta starts AI training with personal data - those who want to object must act quickly*
https://datenschutz-hamburg.de/news/meta-starts-ai-training-with- personal-data
15 April 2025
Until now, Meta's AI technology has not been trained with the Facebook and Instagram data of European users. This is now set to change: From *the end of May 2025, Meta wants to use the data of all adult European Facebook and Instagram users for training of its own AI applications*. The data will then be used to train the company's AI-based services such as the Meta-AI chatbot on WhatsApp or language models such as Llama.
*Start of training planned for 2024 postponed for the time being*
Meta had already announced last year that it would use all public posts and photos from its European Facebook and Instagram users for AI training. *However, Meta then postponed the project *after the Irish Data Protection Authority (IDPC), which is the lead supervisory authority for Meta in the EU, approached the company with data protection issues, particularly regarding the legal basis and transparency. *The procedure that is now in place makes it easier to object *to Meta's use of personal data for AI training.
*If users want to object, then now*
Registered users of Facebook and Instagram must now decide whether the company may train AI models with their personal data (posts, photos, etc.). This applies not only to the future, but also to all data from the past.
If you have no concerns about your publicly accessible posts, comments and photos in your own account being used for AI training, you don't have to do anything.
Anyone who wants to prevent their own data from being used by Meta for AI training purposes *must take action now*. All European users of legal age will be notified accordingly by Meta and informed of their options. You can object in the respective apps or for Facebook at https://www.facebook.com/help/contact/712876720715583 <https:// www.facebook.com/help/contact/712876720715583> and for Instagram at https://help.instagram.com/contact/767264225370182 <https:// help.instagram.com/contact/767264225370182>. For the objection to take full effect, it must be lodged before the end of May 2025. Although it is possible to object at any time after this date, it will no longer be possible to undo that your data has already been used for AI training. Training data is irrevocably incorporated into AI models and its influence can no longer be removed from the model according to the current state of the art.
Thomas Fuchs, Hamburg Commissioner for Data Protection and Freedom of Information: „I can well understand that users are concerned when all their images and texts shared on social networks are now incorporated into AI models. The only way to protect yourself here is to object in good time. If so, then now.“
-- You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)
Sbagli. WhatsApp non c'entra nulla! Il giorno ven 18 apr 2025 alle ore 16:13 Stefano Quintarelli via nexa < nexa@server-nexa.polito.it> ha scritto:
a me sembra un pasticcio, o sbaglio ?
in un gruppo whatsapp di 10 persone, se 9 fanno opt out ed uno no, ad esempio perche' non usa piu' whatsapp, tutte e 9 si vedono i propri dati riversati in un LLM, pronti a risaltar fuori al primo jailbraking.
o sbaglio ad interpretare ? (domanda non retorica)
grazie!, s.
On 18/04/25 08:00, Stefano Borroni Barale wrote:
Questo annuncio si dimentica di notare la cosa più rilevante: come scrive Meta nella sua informativa se obiettate (cosa che ho fatto immediatamente) esiste un'eccezione.
Se i nostri dati pubblici sono stati "ripubblicati" (p.es. con la funzione "condividi" di Facebook) da qualcuno che non ha espresso uguale obiezione allora il nostro materiale verrà utilizzato COMUNQUE per l'ottimizzazione del loro modello linguistico.
Se, da un lato, questa è probabilmente l'unica soluzione tecnica possibile per non finire in un labirinto senza uscita di accordi/ dinieghi, secondo me è rivelatoria delle basi completamente incompatibili con l'attuale diritto di questa operazione.
/Let it sink. /Come dicono gli anglosassoni.
Da un certo punto di vista mi verrebbe da festeggiare: sono da sempre a favore del copyleft: il problema è uno solo. Che il copyright viene abolito per tutti, tranne che per Meta Inc. la quale, una volta creati i pesi del suo LLM grazie ai NOSTRI dati, lo controlla e può invocare misure draconiane fino a limite di instaurare uno stato di polizia, per ottenerne la protezione dal /furto di IP/.
Proprio come ha avuto il coraggio di fare OpenAi quando è comparso su Internet Deepseek, che avrebbe "copiato la loro proprietà intellettuale". Era girata la proposta di /punire con/ /il carcere /il semplice download//di Deepseek (tra l'altro: qualcuno sa che fine ha fatto?)
A questo punto credo che i giuristi in lista abbiano già compreso dove sto andando a parare: l'UE avrebbe una soluzione molto più onorevole. Permettere la creazione di LLM facendo un'eccezione al principio di minimizzazione della raccolta dati del GDPR e al copyright sotto una semplice condizione: tutto quello che ne esce deve essere Public Domain. Public Domain i pesi iniziali, Public Domain TUTTI i dati utilizzati per l'ottimizzazione, Public Domain i pesi a valle dell'ottimizzazione e licenza libera per il software di creazione della rete neurale.
<TROLL mode ON>
Semplice, lineare e inattaccabile. No? :-)
<TROLL mode OFF> :-) Stefano
Inviato con l'email sicura Proton Mail <https://proton.me/mail/home>.
giovedì 17 aprile 2025 10:59, J.C. DE MARTIN <juancarlos.demartin@polito.it> ha scritto:
*Meta starts AI training with personal data - those who want to object must act quickly*
https://datenschutz-hamburg.de/news/meta-starts-ai-training-with- personal-data
15 April 2025
Until now, Meta's AI technology has not been trained with the Facebook and Instagram data of European users. This is now set to change: From *the end of May 2025, Meta wants to use the data of all adult European Facebook and Instagram users for training of its own AI applications*. The data will then be used to train the company's AI-based services such as the Meta-AI chatbot on WhatsApp or language models such as Llama.
*Start of training planned for 2024 postponed for the time being*
Meta had already announced last year that it would use all public posts and photos from its European Facebook and Instagram users for AI training. *However, Meta then postponed the project *after the Irish Data Protection Authority (IDPC), which is the lead supervisory authority for Meta in the EU, approached the company with data protection issues, particularly regarding the legal basis and transparency. *The procedure that is now in place makes it easier to object *to Meta's use of personal data for AI training.
*If users want to object, then now*
Registered users of Facebook and Instagram must now decide whether the company may train AI models with their personal data (posts, photos, etc.). This applies not only to the future, but also to all data from the past.
If you have no concerns about your publicly accessible posts, comments and photos in your own account being used for AI training, you don't have to do anything.
Anyone who wants to prevent their own data from being used by Meta for AI training purposes *must take action now*. All European users of legal age will be notified accordingly by Meta and informed of their options. You can object in the respective apps or for Facebook at https://www.facebook.com/help/contact/712876720715583 <https:// www.facebook.com/help/contact/712876720715583> and for Instagram at https://help.instagram.com/contact/767264225370182 <https:// help.instagram.com/contact/767264225370182>. For the objection to take full effect, it must be lodged before the end of May 2025. Although it is possible to object at any time after this date, it will no longer be possible to undo that your data has already been used for AI training. Training data is irrevocably incorporated into AI models and its influence can no longer be removed from the model according to the current state of the art.
Thomas Fuchs, Hamburg Commissioner for Data Protection and Freedom of Information: „I can well understand that users are concerned when all their images and texts shared on social networks are now incorporated into AI models. The only way to protect yourself here is to object in good time. If so, then now.“
-- You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)
-- *Avv. Carlo Blengino* *Via Duchessa Jolanda n. 19,* *10138 Torino (TO) - Italy* *tel. +39 011 4474035* Penalistiassociati.it
scusa, facebook a parte cio' e' corretto ? On 18/04/25 16:14, Carlo Blengino wrote:
Sbagli. WhatsApp non c'entra nulla!
Il giorno ven 18 apr 2025 alle ore 16:13 Stefano Quintarelli via nexa <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> ha scritto:
a me sembra un pasticcio, o sbaglio ?
in un gruppo whatsapp di 10 persone, se 9 fanno opt out ed uno no, ad esempio perche' non usa piu' whatsapp, tutte e 9 si vedono i propri dati riversati in un LLM, pronti a risaltar fuori al primo jailbraking.
o sbaglio ad interpretare ? (domanda non retorica)
grazie!, s.
On 18/04/25 08:00, Stefano Borroni Barale wrote: > Questo annuncio si dimentica di notare la cosa più rilevante: come > scrive Meta nella sua informativa se obiettate (cosa che ho fatto > immediatamente) esiste un'eccezione. > > Se i nostri dati pubblici sono stati "ripubblicati" (p.es <http://p.es>. con la > funzione "condividi" di Facebook) da qualcuno che non ha espresso uguale > obiezione allora il nostro materiale verrà utilizzato COMUNQUE per > l'ottimizzazione del loro modello linguistico. > > Se, da un lato, questa è probabilmente l'unica soluzione tecnica > possibile per non finire in un labirinto senza uscita di accordi/ > dinieghi, secondo me è rivelatoria delle basi completamente > incompatibili con l'attuale diritto di questa operazione. > > /Let it sink. /Come dicono gli anglosassoni. > > Da un certo punto di vista mi verrebbe da festeggiare: sono da sempre a > favore del copyleft: il problema è uno solo. Che il copyright viene > abolito per tutti, tranne che per Meta Inc. la quale, una volta creati i > pesi del suo LLM grazie ai NOSTRI dati, lo controlla e può invocare > misure draconiane fino a limite di instaurare uno stato di polizia, per > ottenerne la protezione dal /furto di IP/. > > Proprio come ha avuto il coraggio di fare OpenAi quando è comparso su > Internet Deepseek, che avrebbe "copiato la loro proprietà > intellettuale". Era girata la proposta di /punire con/ /il carcere /il > semplice download//di Deepseek (tra l'altro: qualcuno sa che fine ha fatto?) > > A questo punto credo che i giuristi in lista abbiano già compreso dove > sto andando a parare: l'UE avrebbe una soluzione molto più onorevole. > Permettere la creazione di LLM facendo un'eccezione al principio di > minimizzazione della raccolta dati del GDPR e al copyright sotto una > semplice condizione: tutto quello che ne esce deve essere Public Domain. > Public Domain i pesi iniziali, Public Domain TUTTI i dati utilizzati per > l'ottimizzazione, Public Domain i pesi a valle dell'ottimizzazione e > licenza libera per il software di creazione della rete neurale. > > <TROLL mode ON> > > Semplice, lineare e inattaccabile. No? :-) > > <TROLL mode OFF> > :-) > Stefano > > Inviato con l'email sicura Proton Mail <https://proton.me/mail/ home <https://proton.me/mail/home>>. > > giovedì 17 aprile 2025 10:59, J.C. DE MARTIN > <juancarlos.demartin@polito.it <mailto:juancarlos.demartin@polito.it>> ha scritto: >> *Meta starts AI training with personal data - those who want to object >> must act quickly* >> >> https://datenschutz-hamburg.de/news/meta-starts-ai-training- with- <https://datenschutz-hamburg.de/news/meta-starts-ai-training- with-> >> personal-data >> >> 15 April 2025 >> >> Until now, Meta's AI technology has not been trained with the Facebook >> and Instagram data of European users. This is now set to change: From >> *the end of May 2025, Meta wants to use the data of all adult European >> Facebook and Instagram users for training of its own AI applications*. >> The data will then be used to train the company's AI-based services >> such as the Meta-AI chatbot on WhatsApp or language models such as Llama. >> >> >> *Start of training planned for 2024 postponed for the time being* >> >> Meta had already announced last year that it would use all public >> posts and photos from its European Facebook and Instagram users for AI >> training. *However, Meta then postponed the project *after the Irish >> Data Protection Authority (IDPC), which is the lead supervisory >> authority for Meta in the EU, approached the company with data >> protection issues, particularly regarding the legal basis and >> transparency. *The procedure that is now in place makes it easier to >> object *to Meta's use of personal data for AI training. >> >> >> *If users want to object, then now* >> >> Registered users of Facebook and Instagram must now decide whether the >> company may train AI models with their personal data (posts, photos, >> etc.). This applies not only to the future, but also to all data from >> the past. >> >> If you have no concerns about your publicly accessible posts, comments >> and photos in your own account being used for AI training, you don't >> have to do anything. >> >> Anyone who wants to prevent their own data from being used by Meta for >> AI training purposes *must take action now*. All European users of >> legal age will be notified accordingly by Meta and informed of their >> options. You can object in the respective apps or for Facebook at >> https://www.facebook.com/help/contact/712876720715583 <https:// www.facebook.com/help/contact/712876720715583> <https:// >> www.facebook.com/help/contact/712876720715583 <http:// www.facebook.com/help/contact/712876720715583>> and for Instagram at >> https://help.instagram.com/contact/767264225370182 <https:// help.instagram.com/contact/767264225370182> <https:// >> help.instagram.com/contact/767264225370182 <http:// help.instagram.com/contact/767264225370182>>. For the objection to take >> full effect, it must be lodged before the end of May 2025. Although it >> is possible to object at any time after this date, it will no longer >> be possible to undo that your data has already been used for AI >> training. Training data is irrevocably incorporated into AI models and >> its influence can no longer be removed from the model according to the >> current state of the art. >> >> Thomas Fuchs, Hamburg Commissioner for Data Protection and Freedom of >> Information: „I can well understand that users are concerned when all >> their images and texts shared on social networks are now incorporated >> into AI models. The only way to protect yourself here is to object in >> good time. If so, then now.“ >> >> >
-- You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)
-- * * *Avv. Carlo Blengino* * * /Via Duchessa Jolanda n. 19,/ /10138 Torino (TO) - Italy/ /tel. +39 011 4474035/ Penalistiassociati.it //
-- You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)
Se è una interazione pubblica, su di una pagina pubblica che non ha fatto opt-out, il tuo post viene usato. Il giorno ven 18 apr 2025 alle ore 16:20 Stefano Quintarelli < stefano@quintarelli.it> ha scritto:
scusa, facebook a parte cio' e' corretto ?
On 18/04/25 16:14, Carlo Blengino wrote:
Sbagli. WhatsApp non c'entra nulla!
Il giorno ven 18 apr 2025 alle ore 16:13 Stefano Quintarelli via nexa <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> ha scritto:
a me sembra un pasticcio, o sbaglio ?
in un gruppo whatsapp di 10 persone, se 9 fanno opt out ed uno no, ad esempio perche' non usa piu' whatsapp, tutte e 9 si vedono i propri dati riversati in un LLM, pronti a risaltar fuori al primo jailbraking.
o sbaglio ad interpretare ? (domanda non retorica)
grazie!, s.
On 18/04/25 08:00, Stefano Borroni Barale wrote: > Questo annuncio si dimentica di notare la cosa più rilevante: come > scrive Meta nella sua informativa se obiettate (cosa che ho fatto > immediatamente) esiste un'eccezione. > > Se i nostri dati pubblici sono stati "ripubblicati" (p.es <http://p.es>. con la > funzione "condividi" di Facebook) da qualcuno che non ha espresso uguale > obiezione allora il nostro materiale verrà utilizzato COMUNQUE per > l'ottimizzazione del loro modello linguistico. > > Se, da un lato, questa è probabilmente l'unica soluzione tecnica > possibile per non finire in un labirinto senza uscita di accordi/ > dinieghi, secondo me è rivelatoria delle basi completamente > incompatibili con l'attuale diritto di questa operazione. > > /Let it sink. /Come dicono gli anglosassoni. > > Da un certo punto di vista mi verrebbe da festeggiare: sono da sempre a > favore del copyleft: il problema è uno solo. Che il copyright viene > abolito per tutti, tranne che per Meta Inc. la quale, una volta creati i > pesi del suo LLM grazie ai NOSTRI dati, lo controlla e può invocare > misure draconiane fino a limite di instaurare uno stato di polizia, per > ottenerne la protezione dal /furto di IP/. > > Proprio come ha avuto il coraggio di fare OpenAi quando è comparso su > Internet Deepseek, che avrebbe "copiato la loro proprietà > intellettuale". Era girata la proposta di /punire con/ /il carcere /il > semplice download//di Deepseek (tra l'altro: qualcuno sa che fine ha fatto?) > > A questo punto credo che i giuristi in lista abbiano già compreso dove > sto andando a parare: l'UE avrebbe una soluzione molto più onorevole. > Permettere la creazione di LLM facendo un'eccezione al principio di > minimizzazione della raccolta dati del GDPR e al copyright sotto una > semplice condizione: tutto quello che ne esce deve essere Public Domain. > Public Domain i pesi iniziali, Public Domain TUTTI i dati utilizzati per > l'ottimizzazione, Public Domain i pesi a valle dell'ottimizzazione e > licenza libera per il software di creazione della rete neurale. > > <TROLL mode ON> > > Semplice, lineare e inattaccabile. No? :-) > > <TROLL mode OFF> > :-) > Stefano > > Inviato con l'email sicura Proton Mail <https://proton.me/mail/ home <https://proton.me/mail/home>>. > > giovedì 17 aprile 2025 10:59, J.C. DE MARTIN > <juancarlos.demartin@polito.it <mailto:juancarlos.demartin@polito.it>> ha scritto: >> *Meta starts AI training with personal data - those who want to object >> must act quickly* >> >> https://datenschutz-hamburg.de/news/meta-starts-ai-training- with- <https://datenschutz-hamburg.de/news/meta-starts-ai-training- with-> >> personal-data >> >> 15 April 2025 >> >> Until now, Meta's AI technology has not been trained with the Facebook >> and Instagram data of European users. This is now set to change: From >> *the end of May 2025, Meta wants to use the data of all adult European >> Facebook and Instagram users for training of its own AI applications*. >> The data will then be used to train the company's AI-based services >> such as the Meta-AI chatbot on WhatsApp or language models such as Llama. >> >> >> *Start of training planned for 2024 postponed for the time being* >> >> Meta had already announced last year that it would use all public >> posts and photos from its European Facebook and Instagram users for AI >> training. *However, Meta then postponed the project *after the Irish >> Data Protection Authority (IDPC), which is the lead supervisory >> authority for Meta in the EU, approached the company with data >> protection issues, particularly regarding the legal basis and >> transparency. *The procedure that is now in place makes it easier to >> object *to Meta's use of personal data for AI training. >> >> >> *If users want to object, then now* >> >> Registered users of Facebook and Instagram must now decide whether the >> company may train AI models with their personal data (posts, photos, >> etc.). This applies not only to the future, but also to all data from >> the past. >> >> If you have no concerns about your publicly accessible posts, comments >> and photos in your own account being used for AI training, you don't >> have to do anything. >> >> Anyone who wants to prevent their own data from being used by Meta for >> AI training purposes *must take action now*. All European users of >> legal age will be notified accordingly by Meta and informed of their >> options. You can object in the respective apps or for Facebook at >> https://www.facebook.com/help/contact/712876720715583 <https:// www.facebook.com/help/contact/712876720715583> <https:// >> www.facebook.com/help/contact/712876720715583 <http:// www.facebook.com/help/contact/712876720715583>> and for Instagram at >> https://help.instagram.com/contact/767264225370182 <https:// help.instagram.com/contact/767264225370182> <https:// >> help.instagram.com/contact/767264225370182 <http:// help.instagram.com/contact/767264225370182>>. For the objection to take >> full effect, it must be lodged before the end of May 2025. Although it >> is possible to object at any time after this date, it will no longer >> be possible to undo that your data has already been used for AI >> training. Training data is irrevocably incorporated into AI models and >> its influence can no longer be removed from the model according to the >> current state of the art. >> >> Thomas Fuchs, Hamburg Commissioner for Data Protection and Freedom of >> Information: „I can well understand that users are concerned when all >> their images and texts shared on social networks are now incorporated >> into AI models. The only way to protect yourself here is to object in >> good time. If so, then now.“ >> >> >
-- You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)
-- * * *Avv. Carlo Blengino* * * /Via Duchessa Jolanda n. 19,/ /10138 Torino (TO) - Italy/ /tel. +39 011 4474035/ Penalistiassociati.it //
-- You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)
-- *Avv. Carlo Blengino* *Via Duchessa Jolanda n. 19,* *10138 Torino (TO) - Italy* *tel. +39 011 4474035* Penalistiassociati.it
Buonasera Carlo, per come l'ho compresa io potrebbe essere anche un profilo personale di Giovanni Passalapalla, che sta su Facebook, non obietta e fa repost di un mio post pubblico ( pubblico al momento dell'ottimizzazione di Llama4 o Llama5, non importa cosa ne faccio dopo). Se io ho fatto opt-out e lui no anche il mio post viene fagocitato da Llama. Ribadisco: mi sembra l'unica maniera di non creare una ragnatela di veti incrociati ma -al tempo stesso- mostra la natura fortemente interconnessa del problema. La cosa su cui obietto è che la UE sta concedendo _nei fatti_ quella che mi pare un'esenzione dal rispetto del copyright per Meta (ma qui m'interesserebbe la visione di chi ha esperienza nel diritto), e lo fa senza nemmeno chiedere che il risultato di questa operazione restituisca qualcosa alla comunità i cui dati si pretende di usare come abbeveratoio dello sparaballe stocastico. Particolarmente problematico leggo il fatto che l'utilizzo di questi dati è certamente "for profit", al contrario del fair use che Meta cita a capocchia per giustificare la sua richiesta. Non mi pare equo, né razionale, né sostenibile nel lungo periodo. Meno che mai se pensiamo che attualmente la stragrande maggioranza dei siti di software libero sono sottoposti a grande stress per via del comportamento piratesco dei bot di Meta e compari, che non rispettano i file robots.txt e generano un traffico mostruoso a tutte spese delle comunità di sviluppatori. Quindi: non solo Meta non restituisce, ma rischia di disseccare i pozzi ai quali si abbevera, uccidendo i progetti liberi il cui codice pretende di risucchiare senza limiti né regole: https://techcrunch.com/2025/03/27/open-source-devs-are-fighting-ai-crawlers-... Nulla di nuovo sotto il cielo estrattivista di questa fase del capitalismo, ma non mi pare necessario essere trinariciuti per pensare che un freno, magari, sarebbe utile. Pecco di ottimismo? Stefano B. B. Inviato con l'email sicura [Proton Mail](https://proton.me/mail/home). venerdì 18 aprile 2025 16:24, Carlo Blengino <blengino@penalistiassociati.it> ha scritto:
Se è una interazione pubblica, su di una pagina pubblica che non ha fatto opt-out, il tuo post viene usato.
Il giorno ven 18 apr 2025 alle ore 16:20 Stefano Quintarelli <stefano@quintarelli.it> ha scritto:
scusa, facebook a parte cio' e' corretto ?
On 18/04/25 16:14, Carlo Blengino wrote:
Sbagli. WhatsApp non c'entra nulla!
Il giorno ven 18 apr 2025 alle ore 16:13 Stefano Quintarelli via nexa <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> ha scritto:
a me sembra un pasticcio, o sbaglio ?
in un gruppo whatsapp di 10 persone, se 9 fanno opt out ed uno no, ad esempio perche' non usa piu' whatsapp, tutte e 9 si vedono i propri dati riversati in un LLM, pronti a risaltar fuori al primo jailbraking.
o sbaglio ad interpretare ? (domanda non retorica)
grazie!, s.
On 18/04/25 08:00, Stefano Borroni Barale wrote:
Questo annuncio si dimentica di notare la cosa più rilevante: come scrive Meta nella sua informativa se obiettate (cosa che ho fatto immediatamente) esiste un'eccezione.
Se i nostri dati pubblici sono stati "ripubblicati" (p.es <http://p.es>. con la funzione "condividi" di Facebook) da qualcuno che non ha espresso uguale obiezione allora il nostro materiale verrà utilizzato COMUNQUE per l'ottimizzazione del loro modello linguistico.
Se, da un lato, questa è probabilmente l'unica soluzione tecnica possibile per non finire in un labirinto senza uscita di accordi/ dinieghi, secondo me è rivelatoria delle basi completamente incompatibili con l'attuale diritto di questa operazione.
/Let it sink. /Come dicono gli anglosassoni.
Da un certo punto di vista mi verrebbe da festeggiare: sono da sempre a favore del copyleft: il problema è uno solo. Che il copyright viene abolito per tutti, tranne che per Meta Inc. la quale, una volta creati i pesi del suo LLM grazie ai NOSTRI dati, lo controlla e può invocare misure draconiane fino a limite di instaurare uno stato di polizia, per ottenerne la protezione dal /furto di IP/.
Proprio come ha avuto il coraggio di fare OpenAi quando è comparso su Internet Deepseek, che avrebbe "copiato la loro proprietà intellettuale". Era girata la proposta di /punire con/ /il carcere /il semplice download//di Deepseek (tra l'altro: qualcuno sa che fine ha fatto?)
A questo punto credo che i giuristi in lista abbiano già compreso dove sto andando a parare: l'UE avrebbe una soluzione molto più onorevole. Permettere la creazione di LLM facendo un'eccezione al principio di minimizzazione della raccolta dati del GDPR e al copyright sotto una semplice condizione: tutto quello che ne esce deve essere Public Domain. Public Domain i pesi iniziali, Public Domain TUTTI i dati utilizzati per l'ottimizzazione, Public Domain i pesi a valle dell'ottimizzazione e licenza libera per il software di creazione della rete neurale.
<TROLL mode ON>
Semplice, lineare e inattaccabile. No? :-)
<TROLL mode OFF> :-) Stefano
Inviato con l'email sicura Proton Mail <https://proton.me/mail/ home <https://proton.me/mail/home>>.
giovedì 17 aprile 2025 10:59, J.C. DE MARTIN <juancarlos.demartin@polito.it <mailto:juancarlos.demartin@polito.it>> ha scritto:
*Meta starts AI training with personal data - those who want to object must act quickly*
https://datenschutz-hamburg.de/news/meta-starts-ai-training- with- <https://datenschutz-hamburg.de/news/meta-starts-ai-training- with-> personal-data
15 April 2025
Until now, Meta's AI technology has not been trained with the Facebook and Instagram data of European users. This is now set to change: From *the end of May 2025, Meta wants to use the data of all adult European Facebook and Instagram users for training of its own AI applications*. The data will then be used to train the company's AI-based services such as the Meta-AI chatbot on WhatsApp or language models such as Llama.
*Start of training planned for 2024 postponed for the time being*
Meta had already announced last year that it would use all public posts and photos from its European Facebook and Instagram users for AI training. *However, Meta then postponed the project *after the Irish Data Protection Authority (IDPC), which is the lead supervisory authority for Meta in the EU, approached the company with data protection issues, particularly regarding the legal basis and transparency. *The procedure that is now in place makes it easier to object *to Meta's use of personal data for AI training.
*If users want to object, then now*
Registered users of Facebook and Instagram must now decide whether the company may train AI models with their personal data (posts, photos, etc.). This applies not only to the future, but also to all data from the past.
If you have no concerns about your publicly accessible posts, comments and photos in your own account being used for AI training, you don't have to do anything.
Anyone who wants to prevent their own data from being used by Meta for AI training purposes *must take action now*. All European users of legal age will be notified accordingly by Meta and informed of their options. You can object in the respective apps or for Facebook at https://www.facebook.com/help/contact/712876720715583 <https:// www.facebook.com/help/contact/712876720715583> <https:// www.facebook.com/help/contact/712876720715583 <http:// www.facebook.com/help/contact/712876720715583>> and for Instagram at https://help.instagram.com/contact/767264225370182 <https:// help.instagram.com/contact/767264225370182> <https:// help.instagram.com/contact/767264225370182 <http:// help.instagram.com/contact/767264225370182>>. For the objection to take full effect, it must be lodged before the end of May 2025. Although it is possible to object at any time after this date, it will no longer be possible to undo that your data has already been used for AI training. Training data is irrevocably incorporated into AI models and its influence can no longer be removed from the model according to the current state of the art.
Thomas Fuchs, Hamburg Commissioner for Data Protection and Freedom of Information: „I can well understand that users are concerned when all their images and texts shared on social networks are now incorporated into AI models. The only way to protect yourself here is to object in good time. If so, then now.“
-- You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)
-- * * *Avv. Carlo Blengino* * * /Via Duchessa Jolanda n. 19,/ /10138 Torino (TO) - Italy/ /tel. +39 011 4474035/ Penalistiassociati.it //
-- You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)
--
Avv. Carlo Blengino Via Duchessa Jolanda n. 19, 10138 Torino (TO) - Italy
tel. +39 011 4474035 Penalistiassociati.it
participants (8)
-
Carlo Blengino -
Fosco Bugoni -
Guido Vetere -
J.C. DE MARTIN -
Josephine Condemi -
maurizio lana -
Stefano Borroni Barale -
Stefano Quintarelli