Se è una interazione pubblica, su di una pagina pubblica che non ha fatto opt-out, il tuo post viene usato.
 

Il giorno ven 18 apr 2025 alle ore 16:20 Stefano Quintarelli <stefano@quintarelli.it> ha scritto:
scusa, facebook
a parte cio' e' corretto ?

On 18/04/25 16:14, Carlo Blengino wrote:
> Sbagli. WhatsApp non c'entra nulla!
>
> Il giorno ven 18 apr 2025 alle ore 16:13 Stefano Quintarelli via nexa
> <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> ha scritto:
>
>     a me sembra un pasticcio, o sbaglio ?
>
>     in un gruppo whatsapp di 10 persone, se 9 fanno opt out ed uno no, ad
>     esempio perche' non usa piu' whatsapp, tutte e 9 si vedono i propri
>     dati
>     riversati in un LLM, pronti a risaltar fuori al primo jailbraking.
>
>     o sbaglio ad interpretare ?
>     (domanda non retorica)
>
>     grazie!, s.
>
>     On 18/04/25 08:00, Stefano Borroni Barale wrote:
>      > Questo annuncio si dimentica di notare la cosa più rilevante: come
>      > scrive Meta nella sua informativa se obiettate (cosa che ho fatto
>      > immediatamente) esiste un'eccezione.
>      >
>      > Se i nostri dati pubblici sono stati "ripubblicati" (p.es
>     <http://p.es>. con la
>      > funzione "condividi" di Facebook) da qualcuno che non ha espresso
>     uguale
>      > obiezione allora il nostro materiale verrà utilizzato COMUNQUE per
>      > l'ottimizzazione del loro modello linguistico.
>      >
>      > Se, da un lato, questa è probabilmente l'unica soluzione tecnica
>      > possibile per non finire in un labirinto senza uscita di accordi/
>      > dinieghi, secondo me è rivelatoria delle basi completamente
>      > incompatibili con l'attuale diritto di questa operazione.
>      >
>      > /Let it sink. /Come dicono gli anglosassoni.
>      >
>      > Da un certo punto di vista mi verrebbe da festeggiare: sono da
>     sempre a
>      > favore del copyleft: il problema è uno solo. Che il copyright viene
>      > abolito per tutti, tranne che per Meta Inc. la quale, una volta
>     creati i
>      > pesi del suo LLM grazie ai NOSTRI dati, lo controlla e può invocare
>      > misure draconiane fino a limite di instaurare uno stato di
>     polizia, per
>      > ottenerne la protezione dal /furto di IP/.
>      >
>      > Proprio come ha avuto il coraggio di fare OpenAi quando è
>     comparso su
>      > Internet Deepseek, che avrebbe "copiato la loro proprietà
>      > intellettuale". Era girata la proposta di /punire con/ /il
>     carcere /il
>      > semplice download//di Deepseek (tra l'altro: qualcuno sa che fine
>     ha fatto?)
>      >
>      > A questo punto credo che i giuristi in lista abbiano già compreso
>     dove
>      > sto andando a parare: l'UE avrebbe una soluzione molto più
>     onorevole.
>      > Permettere la creazione di LLM facendo un'eccezione al principio di
>      > minimizzazione della raccolta dati del GDPR e al copyright sotto una
>      > semplice condizione: tutto quello che ne esce deve essere Public
>     Domain.
>      > Public Domain i pesi iniziali, Public Domain TUTTI i dati
>     utilizzati per
>      > l'ottimizzazione, Public Domain i pesi a valle dell'ottimizzazione e
>      > licenza libera per il software di creazione della rete neurale.
>      >
>      > <TROLL mode ON>
>      >
>      > Semplice, lineare e inattaccabile. No? :-)
>      >
>      > <TROLL mode OFF>
>      > :-)
>      > Stefano
>      >
>      > Inviato con l'email sicura Proton Mail <https://proton.me/mail/
>     home <https://proton.me/mail/home>>.
>      >
>      > giovedì 17 aprile 2025 10:59, J.C. DE MARTIN
>      > <juancarlos.demartin@polito.it
>     <mailto:juancarlos.demartin@polito.it>> ha scritto:
>      >> *Meta starts AI training with personal data - those who want to
>     object
>      >> must act quickly*
>      >>
>      >> https://datenschutz-hamburg.de/news/meta-starts-ai-training-
>     with- <https://datenschutz-hamburg.de/news/meta-starts-ai-training-
>     with->
>      >> personal-data
>      >>
>      >> 15 April 2025
>      >>
>      >> Until now, Meta's AI technology has not been trained with the
>     Facebook
>      >> and Instagram data of European users. This is now set to change:
>     From
>      >> *the end of May 2025, Meta wants to use the data of all adult
>     European
>      >> Facebook and Instagram users for training of its own AI
>     applications*.
>      >> The data will then be used to train the company's AI-based services
>      >> such as the Meta-AI chatbot on WhatsApp or language models such
>     as Llama.
>      >>
>      >>
>      >>       *Start of training planned for 2024 postponed for the time
>     being*
>      >>
>      >> Meta had already announced last year that it would use all public
>      >> posts and photos from its European Facebook and Instagram users
>     for AI
>      >> training. *However, Meta then postponed the project *after the
>     Irish
>      >> Data Protection Authority (IDPC), which is the lead supervisory
>      >> authority for Meta in the EU, approached the company with data
>      >> protection issues, particularly regarding the legal basis and
>      >> transparency. *The procedure that is now in place makes it
>     easier to
>      >> object *to Meta's use of personal data for AI training.
>      >>
>      >>
>      >>       *If users want to object, then now*
>      >>
>      >> Registered users of Facebook and Instagram must now decide
>     whether the
>      >> company may train AI models with their personal data (posts,
>     photos,
>      >> etc.). This applies not only to the future, but also to all data
>     from
>      >> the past.
>      >>
>      >> If you have no concerns about your publicly accessible posts,
>     comments
>      >> and photos in your own account being used for AI training, you
>     don't
>      >> have to do anything.
>      >>
>      >> Anyone who wants to prevent their own data from being used by
>     Meta for
>      >> AI training purposes *must take action now*. All European users of
>      >> legal age will be notified accordingly by Meta and informed of
>     their
>      >> options. You can object in the respective apps or for Facebook at
>      >> https://www.facebook.com/help/contact/712876720715583 <https://
>     www.facebook.com/help/contact/712876720715583> <https://
>      >> www.facebook.com/help/contact/712876720715583 <http://
>     www.facebook.com/help/contact/712876720715583>> and for Instagram at
>      >> https://help.instagram.com/contact/767264225370182 <https://
>     help.instagram.com/contact/767264225370182> <https://
>      >> help.instagram.com/contact/767264225370182 <http://
>     help.instagram.com/contact/767264225370182>>. For the objection to take
>      >> full effect, it must be lodged before the end of May 2025.
>     Although it
>      >> is possible to object at any time after this date, it will no
>     longer
>      >> be possible to undo that your data has already been used for AI
>      >> training. Training data is irrevocably incorporated into AI
>     models and
>      >> its influence can no longer be removed from the model according
>     to the
>      >> current state of the art.
>      >>
>      >> Thomas Fuchs, Hamburg Commissioner for Data Protection and
>     Freedom of
>      >> Information: „I can well understand that users are concerned
>     when all
>      >> their images and texts shared on social networks are now
>     incorporated
>      >> into AI models. The only way to protect yourself here is to
>     object in
>      >> good time. If so, then now.“
>      >>
>      >>
>      >
>
>     --
>     You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)
>
>
>
> --
> *
> *
> *Avv. Carlo Blengino*
> *
> *
> /Via Duchessa Jolanda n. 19,/
> /10138 Torino (TO) - Italy/
> /tel. +39 011 4474035/
> Penalistiassociati.it
> //

--
You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)



--
Avv. Carlo Blengino

Via Duchessa Jolanda n. 19,
10138 Torino (TO) - Italy
tel. +39 011 4474035
Penalistiassociati.it