Re: [nexa] mail studenti UniMi outsourced a Microsoft
Concordo. Giovedì mi trovavo al Garante della Privacy per un seminario su La Guerra dei Cookie. Alla fine il vicedirettore mi ha chiesto che suggerimenti potevo dare a loro su normative per difendere i cittadini. Ho risposto che nessuna misura potrà essere efficace se si mette il singolo contro la grande azienda: il confronto è troppo squilibrato tra chi detiene enormi poteri, tecnologici e finanziari. Nella presentazione avevo usato la metafora del gigante contro un insetto. Quindi il mio suggerimento è stato che le difese devono avvenire a livello collettivo, non individuale, che il valore dei dati sta nella collezione, non nel dato singolo. Pertanto la protezione deve avvenire sul bene comune, che è la raccolta complessiva dei dati. Pertanto la loro difesa andrebbe affidata a una cooperativa di utenti, come quelle che gestiscono i Beni Comuni, secondo le indicazioni della premio Nobel Elinor Ostrom. Nella fattispecie andrebbero create delle cooperative di dati, che io chiamo Digital Utopia, a cui i cittadini aderiscono e affidano i propri dati e la gestiine, anche economica, di ciò che essi fanno in rete. Queste organizzazioni dovrebbero negoziare con le aziende i termini e l’uso di tali beni comuni, anche remunerandoli eventualmente. Tali remunerazioni, insieme con le donazioni da parte degli associati, consentirebbero loro di mantenersi, offrire servizi agli associati e svolgere studi e ricerche per migliorare e aumentare il valore dei beni comuni. In particolare, per la gestione dei cookie, invece di dovermi sobbarcare singolarmente di scegliere e leggere ogni due minuti le condizioni di accettazione, un utente potrebbe aderire una volta per tutte a una cooperativa di cui si fida, a cui delegare la scelta di come utilizzare i cookie. Un team di esperti della cooperativa si occuperebbe di decidere quali sia la migliore politica da adottare a seconda dei casi. Nello specifico della posta, ricercatori e studenti universitari potrebbero affiliarsi ad un’associazione a cui affidare la gestione della posta elettronica in modalità autonoma dalle aziende private. Questa associazione potrebbe poi negoziare con le università la fornitura del servizio, o pagando, come adesso pagano Exchange e GMAil, o entrando come soci nell’associazione stessa. Va sens dire che un’associaziine del genere esiste già, anche se sottoutilizzata per questi fini. — Beppe
Date: Fri, 27 Jan 2023 14:13:01 +0100 From: "J.C. DE MARTIN" <demartin@polito.it> To: nexa@server-nexa.polito.it Subject: Re: [nexa] mail studenti UniMi outsourced a Microsoft Message-ID: <954ce58e-e1de-7dd8-19d8-dbb0019b7b4b@polito.it> Content-Type: text/plain; charset="utf-8"; Format="flowed"
Esatto: la soluzione deve essere istituzional-politica.
Scaricare tutto sui singoli, ovvero, pretendere comportamenti più o meno eroici da parte dei singoli invocando principi, anche sacrosanti, non solo non è, a mio avviso, moralmente difendibile, ma non funzionerà _mai_.
jc
On 27/01/23 13:39, Antonio Vetro' wrote: Condivido di aver fatto una cosa molto simile, da genitore, per uno dei miei figli alla scuola materna (!!).
Nonostante tanta perseveranza e telefonate con il preside, non ha portato risultati, e siamo stati anche oggetto di discriminazioni in alcune circostanze (es. l’anno scorso non abbiamo potuto svolgere i colloqui con gli insegnanti, perché fruibili solo attraverso l’account google dell’alunno, nemmeno per telefono!).
Non abbiamo ceduto e non lo faremo perché finché è la materna i danni al bimbo sono davvero limitati.
Tuttavia, non mi sentirei di consigliare questa strada ad altri genitori, soprattutto se meno addentro la questione, che deve -a mio avviso- essere affrontata a livello politico, invece di essere scaricata a livello individuale, come tante altre cose (es. questione ambientale, ecc).
Un caro saluto, Antonio
Il giorno 27 gen 2023, alle ore 13:28, graffio via nexa <nexa@server-nexa.polito.it> ha scritto:
Ciao, approfitto per riportare la mia esperienza di genitore di una studentessa di un primo liceo scientifico di Roma.
Senza chiedere nessun consenso, un giorno mi è arrivata la seguente mail:
"Gentile Genitore. le comunico che è stato creato l'account alla posta del Liceo Cavour e ai servizi Gsuite per suo figlio/a. Il nome utente è: nome.cognome.stud@ <mailto:nome.cognome.stud@liceocavour.edu.it>liceopincopallino <mailto:angela.antonucci.stud@liceocavour.edu.it>.edu.it <mailto:nome.cognome.stud@liceocavour.edu.it> la password è così composta: sezioneliceopincopallinonumeroordineregistro
esempio mario.rossi.stud@liceopincopallino.edu.it <mailto:angela.antonucci.stud@liceocavour.edu.it> 1Aliceopincopallino3
La password dovrà essere modificata al primo accesso. Cordiali saluti"
Ho risposto chiedendo gentilmente di verificare se la piattaforma utilizzata fosse a norma con le direttive europee in materia di privacy, corredando la mail con una serie di riferimenti al GDPR, alla Schrems II, al rapporto sulle violazioni della privacy di Human Right Watch, etc.
In risposta alla mia mi è stata inviata l'informativa sulla privacy di Google, che, secondo la responsabile, avrebbe potuto fugare i miei dubbi. Nella stessa mail però, ed è questa la cosa importante, c'era scritto anche: "In ogni caso, se Lei ritenesse rischioso per sua figlia l'utilizzo di questa piattaforma, può benissimo non dare il Suo consenso. I docenti organizzeranno il proprio lavoro anche tenendo conto della Sua scelta."
A seguito di questo scambio la responsabile ha scritto alla coordinatrice di classe, con me in copia: "ti informo che il genitore della studentessa XXXXXXXX non ha acconsentito all'utilizzo della Gsuite per la propria figlia. Ti chiedo la cortesia di informare i colleghi del Consiglio di Classe. Se su Classroom dovessero essere assegnate attività o inseriti documenti, vi chiedo la cortesia di farli avere all'alunna per le vie brevi, ad esempio utilizzando delle fotocopie. Tenete anche conto che la studentessa non è in possesso della mail istituzionale."
Vi sembra una strada da proporre anche ad altrie che potrebbe smuovere le acque?
buon tutto
-- Maurizio "Graffio" Pillole di informazione digitale -https://pillole.graffio.org "C.I.R.C.E. -https://circex.org" AvANa -https://avana.forteprenestino.net/ Lynx -https://www.lynxlab.com
On Sat, Jan 28, 2023 11:51:21 AM +0100, Giuseppe Attardi wrote:
Quindi il mio suggerimento è stato che le difese devono avvenire a livello collettivo, non individuale, che il valore dei dati sta nella collezione, non nel dato singolo. Pertanto la protezione deve avvenire sul bene comune, che è la raccolta complessiva dei dati.
OK fin qui...
Pertanto la loro difesa andrebbe affidata a una cooperativa di utenti, come quelle che gestiscono i Beni Comuni, secondo le indicazioni della premio Nobel Elinor Ostrom.
Nella fattispecie andrebbero create delle cooperative di dati, che io chiamo Digital Utopia, a cui i cittadini aderiscono e affidano i propri dati e la gestiine, anche economica, di ciò che essi fanno in rete.
ma occhio perche' di cooperative o "sindacati dei dati" se ne parla da anni da Morozov in giu', ma sempre girando intorno a certe domande, per quanto mi risulta: https://stop.zona-m.net/2020/08/a-critique-of-data-unions/ https://stop.zona-m.net/2019/02/limits-and-risks-of-data-as-money/ https://stop.zona-m.net/2018/06/data-stored-by-governments-no-thanks/ (il secondo e' anche in italiano) HTH, Marco -- Please help me write my NEXT MILLION WORDS for digital awareness: https://stop.zona-m.net/2022/12/please-help-me-share-my-next-million-words-i...
Ciao Giuseppe, On Sat, 28 Jan 2023 11:51:21 +0100 Giuseppe Attardi wrote:
il valore dei dati sta nella collezione, non nel dato singolo.
Questa affermazione, seppur formalmente corretta è talmente fuorviante da poter diventare estremamente pericolosa da un punto di vista sociale e politico. Il valore d'uso dei dati personali dipende dall'effetto moltiplicativo che questi applicano all'efficacia di un messaggio su chi lo riceve. Definiamo l'efficacia di un messaggio come il rapporto fra il numero di persone che, dopo averlo ricevuto, attuano il comportamento desiderato dal mittente e il costo di trasmissione del messaggio stesso a tutti i riceventi. Diserzioni a parte, l'ordine di un generale in battaglia ha un efficacia che dipende quasi esclusivamente dal costo di trasmissione ai sottoposti (che però può essere elevato): tutti coloro che ricevono l'ordine DEVONO ubbidire in quanto hanno accettato di essere pedine sacrificabili di uno scontro. Un messaggio pubblicitario su un quotidiano cartaceo ha un efficacia molto inferiore sebbene il costo sia nettamente inferiore, semplicemente perché la stragrande maggioranza dei riceventi lo ignora. I dati disponibili sui riceventi permettono sempre di aumentare l'efficacia di tali messaggi riducendone i costi: - selezionando in anticipo solo i destinatari più propensi ad ubbidire - selezionando il canale migliore per raggiungerli - selezionando il messaggio migliore per convincerli Definiamo e₀ il rapporto fra il numero di persone che attuano il comportamento desiderato e il costo di inviare un messaggio alla totalità della popolazione raggiungibile. Per qualsiasi mittente, e₀ è l'efficacia di base che può avere un messaggio data la popolazione di destinatari che riesce a raggiungere, senza conoscere NULLA di tali destinatari (ovvero conoscendo 0 bit sulla popolazione di riferimento) Il valore d'uso dei dati personali consiste nel fattore moltiplicativo applicabile a tale efficacia di base. Ad esempio, se voglio vendere un profumo da donna e conosco il sesso degli individui della mia popolazione raggiungibile, posso dimezzare il costo necessario al loro raggiungimento e probabilmente selezionare un canale più frequentato da donne per veicolare un messaggio promozionale. Ne deriva che e₁ ≥ 2¹ × e₀ Se però so che la metà di quelle donne non può permettersi il prezzo del mio profumo, posso ulteriormente dimezzare il costo di inviare il mio messaggio promozionale: Dunque e₂ ≥ 2² × e₀ Se scopro che la metà delle donne che possono permettersi il mio profumo l'ha già acquistato pochi giorni fa e ne avrà ancora per mesi, posso ulteriormente dimezzare il costo di invio del mio messaggio promozionale Dunque e₃ ≥ 2³ × e₀ E così via con una crescita esponenziale: ogni nuovo bit acquisito sulla popolazione che posso raggiungere duplica almeno l'efficacia dei messaggi che posso inviare ai destinatari. Ogni nuovo bit aumenta l'influenza del mittente sulla popolazione di riferimento quanto tutti i bit precedentemente raccolti dallo stesso mittente messi insieme. In altri termini, ogni nuovo bit duplica (almeno) il POTERE di chi lo raccoglie. Vi sono poi dinamiche ulteriori per cui il fattore moltiplicativo può diventare molto maggiore, ad esempio individuando correlazioni dirette o inverse fra diversi segmenti di popolazione. Questo è noto ed evidente per gli "influencer" professionali. Ma ogni singolo individuo può avere influenza su un determinato insieme di persone e se io che controllo il loro canale di comunicazione posso identificare questa relazione (che può essere anche inversa) mi può essere sufficiente influenzare un determinato individuo (o un gruppo) per ottenere un comportamento analogo (o inverso) in un gruppo più ampio. Ora è chiaro che se tu non veicoli messaggi coercitivi e non cerchi di indurre le persone che conosci a fare ciò che desideri, e₀ per te è trascurabile per ogni messaggio. E' trascurabile anche perché il numero di destinatari dei tuoi messaggi si riduce a poche decine di persone (nella stragrande maggioranza dei messaggi che trasmetti). Anche duplicando tale efficacia di base, e₁ rimane trascurabile. E se non consideri l'andamento esponenziale appena descritto, ti puoi ben immaginare che 10 o 100 bit su di te, producano un efficacia dei messaggi che subisci pari a 100 volte e₁ invece che pari a 2¹⁰⁰ × e₀ Ma da buon informatico sai bene che se 100 volte e₁ può restare trascurabile se e₁ è trascurabile, 2¹⁰⁰ × e₀ sarà tutt'altro che trascurabile, qualsiasi sia e₀! E stiamo parlando di appena 100 bit di entropia. Per chi può raggiungere puntualmente milioni o miliardi di persone, e di mestiere fa il manipolatore cognitivo-comportamentale: - e₀ è tutt'altro che trascurabile - 100 nuovi bit sono ottenibili in una frazione di secondo E ogni nuovo bit accresce il Potere coercitivo sulla popolazione di questi manipolatori quanto tutti i bit precedentemente raccolti. Per questo, parlare di dati personali come bene comune è straordinariamente pericoloso. E' come parlare della schiavitù come un bene comune! Non si può pagare per usare i dati personali, anzitutto perché la copia dei dati non lascia tracce, e poi perché sarebbe come pagare a schiavi il rancio: se non è giusta la schiavitù, non può esserlo neanche l'uso dei dati personali di una persona per manipolarla. L'unico modo democratico di gestire i dati personali e minimizzarne la diffusione, vietarne la raccolta e limitarne al massimo la ritenzione, punendo con il carcere chiunque effettui e/o faciliti la manipolazione di una o più altre persone. Giacomo PS: spero di essere stato chiaro, ma se ti va di approfondire cosa intendo o magari di correggermi laddove riscontrassi errori nel mio ragionamento, ti suggerisco questo video in cui spiegavo questi concetti in maniera più estesa: http://video.linuxtrent.it/w/sWFcXj4DpWPTkvdi7jA61u
L’analisi non tiene conto del meccanismo delle aste con cui oggi si pagano le inserzioni pubblicitarie: - si paga solo se l’ad viene cliccato e si paga il posizionamento tramite un'asta competitiva con altri inserzionisti, e si paga un cent in più di quanto offrono gli altri. Ossia la competizione è indiretta tra gli inserzionisti per accaparrarsi l’audience migliore, non è diretta tra inserzionisti e target potenziali. L’obiettivo non è quello di minimizzare i costi selezionando i destinatari per pagare di meno, ma di massimizzare la platea dei potenziali fruitori. In altri termini, e₀ è in pratica irrilevante, in quanto tutte le persone per cui si paga l’invio del messaggio lo accettano per definizione, e l’unica cosa che conta è di raggiungerne quante più possibile. Se si sbaglia a scegliere il target, non si hanno costi vivi, ma solo spreco di tempo. Su questo intervengono gli intermediari di pubblicità, che forniscono criteri per individuare i target, attraverso l’utilizzo di cookie di terze parti o loro sostituti quali FloC o PAIR proposti da Google/DoubleClick. Ad esempio FloC si basa sulla classificazione dei target secondo 350mila categorie di interessi.. L’individuazione di queste categorie e l’inserimento di un determinato soggetto in una di queste è ciò che viene fatto aggregando i dati degli utenti, in particolare della loro esperienza online (traffico, locazione, affiliazione, ecc.). È questo il valore dell’aggregazione a cui mi riferivo: se hai i dati di milioni di utenti, possibilmente ben classificati, puoi convincere gli inserzionisti a rivolgersi a te per le loro campagne e a guadagnare: chi ci guadagna è il venditore di pubblicità, non l’inserzionista. Per il venditore di pubblicità l’obiettivo è di massimizzare il numero di messaggi venduti, non l’efficacia della campagna dell’inserzionista. Pertanto il suo obiettivo è di mantenere il più a lungo possibile l’attenzione dei visitatori, e di qui il ruolo del materiale più controverso o degli influencer. (Che poi le campagna di targeted advertising siano così efficaci è probabilmente una leggenda, che propaga chi ha interesse a vendere quel tipo di spazi pubblicitari). Per questo ribadisco che il valore a cui tendono gli intermediari di pubblicità (non gli inserzionisti che sono solo loro clienti) è la raccolta di dati di milioni di utenti. Il valore del dato di ciascun singolo è irrilevante rispetto al complesso. L’idea di affidare i dati degli utenti a delle Cooperative di dati è esposta in questo seminario allo Stanford HAI da Divya Siddarth: https://hai.stanford.edu/news/radical-proposal-data-cooperatives-could-give-... Oppure in uno store decentralizzato come quello di Solid: https://solidproject.org/ A me paiono tutte soluzioni per liberarsi dell’asservimento alle piattaforme che si impadroniscono dei dati degli utenti, quindi un modo per affrancarsi da loro.
L'unico modo democratico di gestire i dati personali e minimizzarne la diffusione, vietarne la raccolta e limitarne al massimo la ritenzione, punendo con il carcere chiunque effettui e/o faciliti la manipolazione di una o più altre persone.
Un po’ estremo: vietarne la raccolta bloccherebbe anche servizi cruciali come il servizio sanitario. — Beppe PS. Ho parlato di tracking cookie in un seminario al Garante della Privacy e hanno confermato lo scarso valore dei singoli dati sulla base degli esiti di cause, in cui il risarcimento per i casi di abuso dei dati di un singolo è stato insignificante.
On 28 Jan 2023, at 17:40, Giacomo Tesio <giacomo@tesio.it> wrote:
Ciao Giuseppe,
On Sat, 28 Jan 2023 11:51:21 +0100 Giuseppe Attardi wrote:
il valore dei dati sta nella collezione, non nel dato singolo.
Questa affermazione, seppur formalmente corretta è talmente fuorviante da poter diventare estremamente pericolosa da un punto di vista sociale e politico.
Il valore d'uso dei dati personali dipende dall'effetto moltiplicativo che questi applicano all'efficacia di un messaggio su chi lo riceve.
Definiamo l'efficacia di un messaggio come il rapporto fra il numero di persone che, dopo averlo ricevuto, attuano il comportamento desiderato dal mittente e il costo di trasmissione del messaggio stesso a tutti i riceventi.
Diserzioni a parte, l'ordine di un generale in battaglia ha un efficacia che dipende quasi esclusivamente dal costo di trasmissione ai sottoposti (che però può essere elevato): tutti coloro che ricevono l'ordine DEVONO ubbidire in quanto hanno accettato di essere pedine sacrificabili di uno scontro.
Un messaggio pubblicitario su un quotidiano cartaceo ha un efficacia molto inferiore sebbene il costo sia nettamente inferiore, semplicemente perché la stragrande maggioranza dei riceventi lo ignora.
I dati disponibili sui riceventi permettono sempre di aumentare l'efficacia di tali messaggi riducendone i costi:
- selezionando in anticipo solo i destinatari più propensi ad ubbidire - selezionando il canale migliore per raggiungerli - selezionando il messaggio migliore per convincerli
Definiamo e₀ il rapporto fra il numero di persone che attuano il comportamento desiderato e il costo di inviare un messaggio alla totalità della popolazione raggiungibile.
Per qualsiasi mittente, e₀ è l'efficacia di base che può avere un messaggio data la popolazione di destinatari che riesce a raggiungere, senza conoscere NULLA di tali destinatari (ovvero conoscendo 0 bit sulla popolazione di riferimento)
Il valore d'uso dei dati personali consiste nel fattore moltiplicativo applicabile a tale efficacia di base.
Ad esempio, se voglio vendere un profumo da donna e conosco il sesso degli individui della mia popolazione raggiungibile, posso dimezzare il costo necessario al loro raggiungimento e probabilmente selezionare un canale più frequentato da donne per veicolare un messaggio promozionale.
Ne deriva che e₁ ≥ 2¹ × e₀
Se però so che la metà di quelle donne non può permettersi il prezzo del mio profumo, posso ulteriormente dimezzare il costo di inviare il mio messaggio promozionale:
Dunque e₂ ≥ 2² × e₀
Se scopro che la metà delle donne che possono permettersi il mio profumo l'ha già acquistato pochi giorni fa e ne avrà ancora per mesi, posso ulteriormente dimezzare il costo di invio del mio messaggio promozionale
Dunque e₃ ≥ 2³ × e₀
E così via con una crescita esponenziale: ogni nuovo bit acquisito sulla popolazione che posso raggiungere duplica almeno l'efficacia dei messaggi che posso inviare ai destinatari.
Ogni nuovo bit aumenta l'influenza del mittente sulla popolazione di riferimento quanto tutti i bit precedentemente raccolti dallo stesso mittente messi insieme.
In altri termini, ogni nuovo bit duplica (almeno) il POTERE di chi lo raccoglie.
Vi sono poi dinamiche ulteriori per cui il fattore moltiplicativo può diventare molto maggiore, ad esempio individuando correlazioni dirette o inverse fra diversi segmenti di popolazione.
Questo è noto ed evidente per gli "influencer" professionali.
Ma ogni singolo individuo può avere influenza su un determinato insieme di persone e se io che controllo il loro canale di comunicazione posso identificare questa relazione (che può essere anche inversa) mi può essere sufficiente influenzare un determinato individuo (o un gruppo) per ottenere un comportamento analogo (o inverso) in un gruppo più ampio.
Ora è chiaro che se tu non veicoli messaggi coercitivi e non cerchi di indurre le persone che conosci a fare ciò che desideri, e₀ per te è trascurabile per ogni messaggio.
E' trascurabile anche perché il numero di destinatari dei tuoi messaggi si riduce a poche decine di persone (nella stragrande maggioranza dei messaggi che trasmetti).
Anche duplicando tale efficacia di base, e₁ rimane trascurabile. E se non consideri l'andamento esponenziale appena descritto, ti puoi ben immaginare che 10 o 100 bit su di te, producano un efficacia dei messaggi che subisci pari a 100 volte e₁ invece che pari a 2¹⁰⁰ × e₀
Ma da buon informatico sai bene che se 100 volte e₁ può restare trascurabile se e₁ è trascurabile, 2¹⁰⁰ × e₀ sarà tutt'altro che trascurabile, qualsiasi sia e₀!
E stiamo parlando di appena 100 bit di entropia.
Per chi può raggiungere puntualmente milioni o miliardi di persone, e di mestiere fa il manipolatore cognitivo-comportamentale:
- e₀ è tutt'altro che trascurabile - 100 nuovi bit sono ottenibili in una frazione di secondo
E ogni nuovo bit accresce il Potere coercitivo sulla popolazione di questi manipolatori quanto tutti i bit precedentemente raccolti.
Per questo, parlare di dati personali come bene comune è straordinariamente pericoloso.
E' come parlare della schiavitù come un bene comune!
Non si può pagare per usare i dati personali, anzitutto perché la copia dei dati non lascia tracce, e poi perché sarebbe come pagare a schiavi il rancio: se non è giusta la schiavitù, non può esserlo neanche l'uso dei dati personali di una persona per manipolarla.
L'unico modo democratico di gestire i dati personali e minimizzarne la diffusione, vietarne la raccolta e limitarne al massimo la ritenzione, punendo con il carcere chiunque effettui e/o faciliti la manipolazione di una o più altre persone.
Giacomo
PS: spero di essere stato chiaro, ma se ti va di approfondire cosa intendo o magari di correggermi laddove riscontrassi errori nel mio ragionamento, ti suggerisco questo video in cui spiegavo questi concetti in maniera più estesa: https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301281640191026430...
Ciao Giuseppe, On Mon, 30 Jan 2023 11:00:44 +0100 Giuseppe Attardi wrote:
L’analisi non tiene conto del meccanismo delle aste con cui oggi si pagano le inserzioni pubblicitarie
Vero, perché la mia analisi non si limita alle ricadute economiche del controllo dei dati e dunque al loro valore "economico". Ho parlato espressamente di "valore d'uso" come fattore moltiplicativo dell'efficacia nella manipolazione di una popolazione. Si tratta di una forma di POTERE nuova, una leadership senza leader visibili a cui chiedere conto. Poi sì, la ricaduta economica di questo potere è minima: come dico sempre i fatturati di aziende come Google o Facebook sono irrilevanti a confronto del potere di cui dispongono grazie ai dati che hanno raccolto fin ora. Purtuttavia, minimizzare i costi della manipolazione ed aumentarne l'efficacia sono due facce della stessa medaglia: ricorda, Google non seleziona solamente chi deve vedere un determinato Ads, ma anche quali Ads (o risultati di ricerca, o notizie etc...) ciascun navigatore deve vedere. E lo fa costantemente, non solo per ragioni economiche, ma politiche.
Il valore del dato di ciascun singolo è irrilevante rispetto al complesso.
Questo è certamente vero, perché il complesso cresce appunto in modo esponenziale con ogni bit raccolto su tutti gli altri. Tuttavia, ogni nuovo bit raccolto su un individuo duplica l'efficacia delle manipolazioni cognitivo-comportamentali che Google può attuare su quell'individuo (e su tutti coloro che sono simili a lui rispetto alle dimensioni via via rilevanti). In altri termini, ogni nuovo bit raccolto su una persona da Google riduce la libertà di pensiero di quella persona quanto tutti i bit raccolti in precedenza su di lei (o su chiunque sia simile sotto le dimensioni rilevanti). Hai ragione: questa riduzione di libertà è minima se paragonata con quella complessivamente applicata all'intera popolazione sorvegliata. Ovvero, il potere POLITICO di Google è infinitamente superiore rispetto a quello coercitivo che può applicare ad un singolo individuo. Ma ciò non significa che il prossimo bit che Google raccoglierà su di te non ti danneggi gravemente, tanto più se di dati personali ne ha già raccolti tanti. Che poi questo danno sia difficile da quantificare economicamente, soprattutto con modelli primitivi come quelli attuali che non rappresentano la sua crescita esponenziale, è un discorso diverso. D'altro canto, se anche fosse lecito pagare per usare una persona (ovvero per imporgli la propria volontà, come con la pubblicità subliminale) ad un valore d'uso a crescita esponenziale dovrebbe corrispondere una retribuzione a crescita esponenziale. Solo così il compenso potrebbe essere equo. Al primo bit mi paghi un centesimo. Al secondo 2. Al terzo 4. Ma al centesimo bit mi dovrai pagare 2^99 centesimi. A quel punto però, dubito che esistano abbastanza soldi sul pianeta per ripagare il prossimo nuovo bit che Google acquisirà.
L'unico modo democratico di gestire i dati personali e minimizzarne la diffusione, vietarne la raccolta e limitarne al massimo la ritenzione, punendo con il carcere chiunque effettui e/o faciliti la manipolazione di una o più altre persone.
Un po’ estremo: vietarne la raccolta bloccherebbe anche servizi cruciali come il servizio sanitario.
Beh, dipende. I miei dati personali sanitari potrebbero essere salvati su un MIO disco cifrati con una chiave pubblica che solo io o i miei cari possiamo decifrare per fornirne accesso ai medici. Tutto sta nel mettere in discussione l'architettura amministrativamente centralizzata del cloud (che poi è operativamente federata per ovvie ragioni di latenza lo stesso). D'altro canto, a ben guardare nessuno (o almeno, non io) vuole mettere in discussione l'importanza di sistemi di fiducia quali il rapporto medico-paziente: mi fido abbastanza poco di chi promuove sistemi "trust-less". Si tratta però di rendere l'uso della fiducia ricevuta trasparente (poter cioè verificare puntualmente e chiaramente come l'hai usata) e facile da riattribuire: se posso toglierti fiducia con un click perché hai abusato dei dati che ti ho fornito e mi è facile scoprire che ne hai abusato, avrai un ottimo incentivo a non abusarne. Siamo però lontani anni luce da un sistema del genere, anche solo perché invece la fiducia "a scatola chiusa" e "vincolata" tramite lock-in o pratiche simili è notoriamente una forma di potere cui molti ambiscono e pochi sono disposti a rinunciare. Quindi al momento è importante minimizzare l'accumulo e l'uso dei dati. Si potrebbe vietarli in generale e autorizzare puntualmente per legge _specifici_ trattamenti nell'interesse della persona, ma solo con le necessarie garanzie tecniche. Giacomo
On 30 Jan 2023, at 13:10, Giacomo Tesio <giacomo@tesio.it> wrote:
Ciao Giuseppe,
On Mon, 30 Jan 2023 11:00:44 +0100 Giuseppe Attardi wrote:
L’analisi non tiene conto del meccanismo delle aste con cui oggi si pagano le inserzioni pubblicitarie
Vero, perché la mia analisi non si limita alle ricadute economiche del controllo dei dati e dunque al loro valore "economico".
Ho parlato espressamente di "valore d'uso" come fattore moltiplicativo dell'efficacia nella manipolazione di una popolazione.
Si tratta di una forma di POTERE nuova, una leadership senza leader visibili a cui chiedere conto.
Poi sì, la ricaduta economica di questo potere è minima: come dico sempre i fatturati di aziende come Google o Facebook sono irrilevanti a confronto del potere di cui dispongono grazie ai dati che hanno raccolto fin ora.
Purtuttavia, minimizzare i costi della manipolazione ed aumentarne l'efficacia sono due facce della stessa medaglia: ricorda, Google non seleziona solamente chi deve vedere un determinato Ads, ma anche quali Ads (o risultati di ricerca, o notizie etc...) ciascun navigatore deve vedere.
E lo fa costantemente, non solo per ragioni economiche, ma politiche.
Il valore del dato di ciascun singolo è irrilevante rispetto al complesso.
Questo è certamente vero, perché il complesso cresce appunto in modo esponenziale con ogni bit raccolto su tutti gli altri.
Tuttavia, ogni nuovo bit raccolto su un individuo duplica l'efficacia delle manipolazioni cognitivo-comportamentali che Google può attuare su quell'individuo (e su tutti coloro che sono simili a lui rispetto alle dimensioni via via rilevanti).
In altri termini, ogni nuovo bit raccolto su una persona da Google riduce la libertà di pensiero di quella persona quanto tutti i bit raccolti in precedenza su di lei (o su chiunque sia simile sotto le dimensioni rilevanti).
Hai ragione: questa riduzione di libertà è minima se paragonata con quella complessivamente applicata all'intera popolazione sorvegliata.
Ovvero, il potere POLITICO di Google è infinitamente superiore rispetto a quello coercitivo che può applicare ad un singolo individuo.
Ma ciò non significa che il prossimo bit che Google raccoglierà su di te non ti danneggi gravemente, tanto più se di dati personali ne ha già raccolti tanti.
Che poi questo danno sia difficile da quantificare economicamente, soprattutto con modelli primitivi come quelli attuali che non rappresentano la sua crescita esponenziale, è un discorso diverso.
D'altro canto, se anche fosse lecito pagare per usare una persona (ovvero per imporgli la propria volontà, come con la pubblicità subliminale) ad un valore d'uso a crescita esponenziale dovrebbe corrispondere una retribuzione a crescita esponenziale.
Solo così il compenso potrebbe essere equo.
Al primo bit mi paghi un centesimo. Al secondo 2. Al terzo 4. Ma al centesimo bit mi dovrai pagare 2^99 centesimi.
A quel punto però, dubito che esistano abbastanza soldi sul pianeta per ripagare il prossimo nuovo bit che Google acquisirà.
Temo ci sia un errore in questa analisi del bit singolo, come lo riporti anche nel video della tua lezione. Non è vero che un singolo dato divida a metà la platea, e il secondo a 1/4 e così via. Un singolo dato distingue solo 1/3miliardi di tutti gli utenti e così il secondo. Ciò che divide a metà è un attributo dei dati che condividono metà degli utenti, ossia 1,5 miliardi. Questo poi si divide ulteriormente a metà solo se trovi un altro attributo completamente indipendente dal precedente, ossia condiviso tra 1,5 miliardo di utenti ortogonale al precedente gruppo di 1,5 miliardi. Se i due attributi non sono ortogonali, la sua capacità di ulteriore discriminazione è inferiore o nulla. Quindi ciò che devono fare gli inserzionisti è individuare quegli attributi che discriminano separandoli gruppi ampi e significativi di utenti. Per fare questo tipo di analisi occorre aggregare i dati di milioni di persone, come minimo, per poter effettuare estrapolazioni statistiche minimamente affidabili. Lo scandalo Cambridge Analytica ha mostrato come bastino 5 attributi di psicometrica per discriminare gruppi di utenti significativi e rilevanti per una campagna politica. Ma il calcolo di quei 5 fattori richiede incrociare milioni di dati. Come riportavo, FloC individua 350mila parametri: così tanti che il rischio di essere troppo selettivo ha spinto Google a ritirare la proposta, per passare a PAIR. Quindi ribadisco, da nessun punto di vista il dato di un singolo ha valore altamente rilevante, né per il singolo, né per l’aggregatore.
L'unico modo democratico di gestire i dati personali e minimizzarne la diffusione, vietarne la raccolta e limitarne al massimo la ritenzione, punendo con il carcere chiunque effettui e/o faciliti la manipolazione di una o più altre persone.
Un po’ estremo: vietarne la raccolta bloccherebbe anche servizi cruciali come il servizio sanitario.
Beh, dipende.
I miei dati personali sanitari potrebbero essere salvati su un MIO disco cifrati con una chiave pubblica che solo io o i miei cari possiamo decifrare per fornirne accesso ai medici.
Tutto sta nel mettere in discussione l'architettura amministrativamente centralizzata del cloud (che poi è operativamente federata per ovvie ragioni di latenza lo stesso).
È del tutto simile alla soluzioni Solid e non dissimile dalle Data Cooperative.
D'altro canto, a ben guardare nessuno (o almeno, non io) vuole mettere in discussione l'importanza di sistemi di fiducia quali il rapporto medico-paziente: mi fido abbastanza poco di chi promuove sistemi "trust-less".
Si tratta però di rendere l'uso della fiducia ricevuta trasparente (poter cioè verificare puntualmente e chiaramente come l'hai usata) e facile da riattribuire: se posso toglierti fiducia con un click perché hai abusato dei dati che ti ho fornito e mi è facile scoprire che ne hai abusato, avrai un ottimo incentivo a non abusarne.
Siamo però lontani anni luce da un sistema del genere, anche solo perché invece la fiducia "a scatola chiusa" e "vincolata" tramite lock-in o pratiche simili è notoriamente una forma di potere cui molti ambiscono e pochi sono disposti a rinunciare.
Le soluzioni che cito mantengono agli utenti il possesso dei dati e i criteri di concessione del loro utilizzo. Queste soluzioni sono più praticabili che lasciare in mano i dati ai singoli, che dovrebbero diventare esperti tecnologi e di norme giuridiche per stabilire come comportarsi, caso per caso, come ad esempio avviene oggi col consenso informato per i cookie su ciascun sito. Il vantaggio di usare delle cooperative è proprio di non lasciare ogni utente solo in un confronto sbilanciato tra grandi aziende che detengono potere economico, tecnico e sono quindi in grado di ricattare l’utente: o accetti o niente servizio. Affidarsi a una cooperativa significa delegare a qualcuno di cui ci si fida di curare i tuoi interessi. Una cooperativa con milioni/miliardi di utenti sarebbe in grado di controbilanciare i poteri delle big tech e negoziare condizioni a vantaggio dei suoi associati. Per esempio, potrebbe raccogliere compensi per le sue funzioni ed usarli per erogare servizi agli associati, sostenere gli sviluppi di soluzioni Open Source e/o svolgere ricerche sulle tematiche per inventare soluzioni a beneficio di tutti, evitando che sia Google a proporre tecniche proprietarie come PAIR. Del resto le cooperative sono un’invenzione del ‘800 proprio come alternativa alle aziende di capitale con scopo di lucro.
Quindi al momento è importante minimizzare l'accumulo e l'uso dei dati.
Si potrebbe vietarli in generale e autorizzare puntualmente per legge _specifici_ trattamenti nell'interesse della persona, ma solo con le necessarie garanzie tecniche.
Dare indicazioni su questo e farle rispettare verso i propri associati sarebbe esattamente il compito delle data cooperative. — Beppe
Giacomo
On Mon, 30 Jan 2023 15:15:44 +0100 Giuseppe Attardi wrote:
Temo ci sia un errore in questa analisi del bit singolo, come lo riporti anche nel video della tua lezione. Non è vero che un singolo dato divida a metà la platea, e il secondo a 1/4 e così via. [...]
Vero: nel video, così come nella analisi che ho riportato qui ci sono molte semplificazioni perché le lezioni erano destinate a persone completamente prive di competenze matematiche ed informatiche precedenti e qui non volevo essere troppo prolisso. Hai ragione: un bit su una persona non dimezza il costo di manipolare un'intera popolazione: devi conoscere quel bit su tutti i membri (o comunque una quantità sufficiente da poterlo dedurre in modo probabilistico attraverso sulla restante parte sulla base delle correlazioni che lo coinvolgono). Infatti, per semplificare _senza_mentire_ di solito parlo di "ogni nuovo bit sulla popolazione" intendendo che lo conosco per tutti i membri. D'altro canto, anche a livello individuale il valore d'uso dei dati funziona nello stesso modo, permettendo la selezione del messaggio (o della sequenza di messaggi) che producono un determinato comportamento. Supponiamo che voglio convincere propriamente TE a sostenere l'ingresso dell'Italia in una guerra nucleare frontale contro la Russia. Se non posso convincerti, voglio comunque disincentivare che tu ti esprima contro. Ogni giorno vengono prodotti miliardi di messaggi sul tema. Ogni nuovo bit _rilevante_ che acquisisco su di te duplica la mia capacità di decidere quali messaggi "personalizzati" efficaci inviarti. Ovviamente se analizziamo un singolo condizionamento su una singola persona, la crescita del valore d'uso dipende dalla rilevanza del bit per il condizionamento in questione di quella persona. Ci sono bit rilevanti per selezionare il messaggio migliore da sottoporti per spingerti ad un certo comportamento e bit irrilevanti. Quelli irrilevanti non influenzano l'efficacia della manipolazione, ma quelli rilevanti continuano ad avere un effetto moltiplicativo esponenziale. Tuttavia, un bit irrilevante per orientare il tuo comportamento in un senso, può essere rilevante per orientare il tuo comportamento in un altro: sapere se sei maschio o femmina potrebbe essere irrilevante per la propensione alla guerra nucleare, ma potrebbe esserlo per influenzare la tua opinione sull'aborto o su qualcos'altro. Tuttavia ogni _nuovo_ bit su una singola persona (ovvero ortogonale e non deducibile da quelli già disponibili) duplica anche l'efficacia della manipolazione di un singolo individuo, dimezzando il numero di messaggi "di suo interesse" fra cui scegliere per condizionarlo nello spazio di attenzione disponibile, ed orientarne il comportamento nella direzione desiderata. Insomma, la dinamica che viene interpretata comunemente come "la polarizzazione delle opinioni sui social" è il risultato dell'applicazione continua di questo meccanismo. Ed è ingenuo chiamarla polarizzazione: si tratta più che altro segmentazione e normalizzazione all'interno di ciascun segmento.
Quindi ribadisco, da nessun punto di vista il dato di un singolo ha valore altamente rilevante, né per il singolo, né per l’aggregatore.
E come ho provato a spiegare ti sbagli perché il valore d'uso dei dati non serve solo a selezionare le persone cui inviare un messaggio, ma anche i messaggi da inviare ad una singola persona per orientarne il comportamento. D'altro canto, una volta che la probabilità di produrre un determinato comportamento in una singola persona è prossimo alla certezza, un bit ulteriore, per quanto nuovo ed ortogonale a tutti gli altri aumenta in modo marginale tale probabilità. MA può aumentare in modo NON marginale la probabilità di successo di molte altre manipolazioni. Quante? Bella domanda... ci penso. :-) Però in fondo è abbastanza intuitivo: anche a livello individuale, tanto meglio puoi prevedere a fronte di quali stimoli una persona reagirà con un determinato comportamento, tanto più facilmente potrai produrre quel comportamento, sottoponendolo nel momento giusto allo stimolo giusto. Questa riduzione di libertà duplica con ogni nuovo bit _rilevante_ acquisito. E poiché non sappiamo a priori per quali manipolazioni un certo bit sia rilevante, preferisco assumere che lo sia per tutte. Matematicamente è una semplificazione eccessiva, ma eticamente no. In fondo, se anche Google potesse determinare SOLO UN mio comportamento, menomando la mia libertà di pensiero in UNA SOLA occasione, per me sarebbe già una violenza gravissima e inaccettabile. Con altre riduzioni della libertà individuale lo comprendiamo tutti subito al volo: pensa alle violenze sessuali.
Affidarsi a una cooperativa significa delegare a qualcuno di cui ci si fida di curare i tuoi interessi. Una cooperativa con milioni/miliardi di utenti sarebbe in grado di controbilanciare i poteri delle big tech e negoziare condizioni a vantaggio dei suoi associati.
Anzitutto la copia dei dati non lascia tracce. Questo di per sé rende opaco l'uso che queste cooperative farebbero di quei dati e chi vi avrebbe accesso. E rende impossibile rimuovere con certezza la fiducia: non saprai mai se una copia dei tuoi dati rimane in una chiavetta della cooperativa [1]. Poi queste cooperative sarebbero oggetto di attacchi di ogni sorta, dalla banale corruzione dei sistemisti a sofisticati attacchi informatici: se metti tutte le uova in un paniere, quello attrae molte più volpi (che magari sono anche incentivate a collaborare). Infine, anche se non ci fosse alcuno di questi problemi, ti rendi conto di cosa negozierebbero queste cooperative "a vantaggio degli associati"? Negozierebbero la menomazione degli associati stessi! E' un po' come proporre di aprire cooperative che negoziano con gli stupratori il prezzo dello stupro degli iscritti, perché altrimenti lo stupratore più ricco deciderà come stuprare tutti gratuitamente. NO! Dobbiamo arrestare gli stupratori, piuttosto! Dobbiamo iniziare a pensare i nostri dati personali come una parte di noi, una parte inviolabile della nostra persona. Della nostra mente, per la precisione. Non puoi affittare un pezzo del tuo cervello. E anche se ti fidassi di me ciecamente, non posso affittarlo neanche io. Neanche se fosse una parte piccola. Perché non è una cosa che hai fatto e mi hai affidato: è un pezzo di te. Giacomo [1] LETTERALMENTE ciò che avvenne in Unicredit https://www.bitdefender.com/blog/hotforsecurity/unicredit-leaks-3-million-cu...
participants (3)
-
Giacomo Tesio -
Giuseppe Attardi -
M. Fioretti