Lasciateci la Faccia - Call for Paper di e-privacy XXIX@RETE
«Lasciateci la faccia» L'identificazione ed controllo biometrico di massa sono incompatibili con unademocrazia rispettosa dei diritti umani? e-privacy XXIX @ RETECall for Partecipation Il Progetto Winston Smith e l’Hermes Center for Transparency and Digital HumanRights sono lieti di invitarti come relatore all’edizione primaverile di e- privacy, che si terrà solo in videoconferenza il 21 ed 22 maggio 2020, constreaming pubblico su Youtube. Parleremo di una società in cui una sorveglianza di massa viene considerata"accettabile" da una maggioranza della popolazione, spaventata da criminalità epandemia. Siamo nelle migliori condizioni per riscrivere le più fosche paginedei libri di storia e della letteratura distopica. I sistemi algoritmici e di deep learning che oggi vengono usati, spessoosannati, come dispensatori di benessere e giustizia. Sono viziati dagli stessipregiudizi dei loro programmatori e dei dati raccolti in modo distorto e poiutilizzati per il loro addestramento. Niente limita l’abuso sistematico dei nostri dati personali che finiscono inpasto a sistemi di tracciamento facciali o comportamentali. È così implementatoun controllo di massa su base biometrica, non normato a priori e senzalimitazioni "by design" nel trattamento dei dati. Il tracciamento su base biometrica, dopo aver controllato in maniera Orwellianai cittadini, produrrà dati che verranno usati non solo per il tecnocontrollo intempo reale, prospettiva già più che preoccupante, ma anche per alimentaresistemi algoritmici e di intelligenza artificiale. Dal riconoscimento del viso edel movimento è breve il passo verso il riconoscimento predittivo dei un“possibile” stato d’animo e potenziale d’azione. Tali sistemi, eredi di manipolazioni avvenute nel recente passato come quelle diCambridge Analytica, saranno presto in grado di determinare, di riflesso, intempo reale il comportamento delle persone, anche nel mondo fisico. Non si tratta di distopia, ma sistemi che oggi diversi Paesi (e non solo quellidiversamente democratici) stanno implementando pubblicamente con poche remore erare opposizioni. I paesi a democrazia compiuta hanno l'obbligo di procedere in direzione opposta.Sono necessarie norme dil settore: la sorveglianza biometrica va permesse soloquanto dimostratamente indispensabile e limitata nello spazio e, soprattutto,nel tempo in modo da evitare l’esposizione continua indiscriminata. La domanda fondamentale è: possono esistere sistemi alimentati da datibiometrici utilizzabili per fini socialmente utili e rispettosi dei diritticivili i cui rischi non trascendano l’utilità? Chi sta assumendo laresponsabilità per la cospicua sottrazione di libertà che questi sistemiintroducono? Siamo in grado di verificarne il potere? Il convegno Sin dal 2002 ad e-privacy si sono confrontate le tematiche di un mondo semprepiù digitale ed interconnesso, nel quale le possibilità di comunicazione edaccesso alla conoscenza crescono continuamente, come pure crescono lepossibilità di tecnocontrollo degli individui sin nei più intimi dettagli.L’approccio è interdisciplinare; dagli specialisti in informatica ai legali chesi occupano di nuove tecnologie, dagli psicologi agli educatori, dagli operatoriprivati a quanti operano nel settore pubblico ed istituzionale.Le proposte d'intervento Il comitato organizzatore valuterà proposte in ambito tecnologico, legale,istituzionale e giurisprudenziale, delle scienze sociali, della filosofia,dell'informatica e dell'attivismo digitale, della privacy, della non- discriminazione, della sorveglianza e dei diritti civili digitali. Verrannoprese in considerazione anche proposte su temi diversi da quello dell'edizione,purché di interesse e di attualità. Le proposte dovranno contenere: Nome del relatore Eventuale associazione rappresentata Indirizzo di posta di riferimento Email e Recapito telefonico Titolo dell'intervento Durata prevista dell'intervento e dell'eventuale Q&A (15' o 30') Outline dell'intervento (circa 200-300 battute) Necessità di sussidi particolari oltre la videoproiezione Abstract con riferimenti (min 500 max 1500 battute) se disponibile alla pubblicazione del materiale sotto licenza libera se disponibile alla pubblicazione di registrazioni audio se disponibile alla pubblicazione di registrazioni video Le proposte di intervento dovranno essere presentate utilizzando il formdisponibile in questa pagina: http://e-privacy.winstonsmith.org/e-privacy-XXIX-proposta.html Le proposte dovranno pervenire al comitato scientifico entro il termine ultimodel 15 aprile 2020. L'accettazione o meno delle proposte sarà comunicata entro il 21 aprile 2020. Gli elaborati, slide o relazioni dell'intervento dovranno pervenire in formaelettronica sul form online in seguito comunicato ai relatori. entro il 15maggio 2020. Di seguito un elenco - non esaustivo - di argomenti pertinenti: Cancel Culture e etica del discorso pubblico Servizi digitali di Stato, informatizzazione obbligatoria, processo telematico, giustizia algoritmica. Diritto alla Conoscenza e democrazie avanzate Diritti civili e politici dell’individuo: libertà di espressione, riservatezza ed anonimato; Profilazione, geotagging, biometria, riconoscimento facciale Tecnologie della liberazione per l’arricchimento della privacy, crittografia e comunicazione sicura. Impatto delle tecnologie di controllo e dell’anonimato sui diritti dei lavoratori e degli studenti. Evoluzione dei mercati di dati personali: data retention, analisi big-data, circolazione e rivendita Dati personali in rete: captatori, intercettazioni lecite e illecite, anonimizzazione, ciclo di vita dei dati raccolti a fini d’investigazione criminale o di sorveglianza di polizia. Gli interventi Gli interventi saranno effettuati dal vivo e, con il consenso dei relatori,registrati in audio ed in video. I relatori potranno utilizzare documenti, slide o filmati, e gli interventidovranno avere una durata compresa fra 15 e 30 minuti, incluso il tempo per Q&A. Potranno essere proposti anche interventi in videoconferenza. È apprezzata la disponibilità del relatore a concedere la pubblicazione delmateriale prodotto e delle riprese dell’intervento sotto licenza libera. L'Organizzazione Al fine di mantenere la propria indipendenza, il convegno è, come sempre, abudget zero. I relatori ed i partecipanti dovranno provvedere in proprio allespese. Eventuali sponsorizzazioni di ditte, enti, gruppi o associazioni hanno caratterenon economico e sono intese come adesione morale ai temi ed ai principi. Gli organizzatori La manifestazione e’ organizzata da: HERMES - Centro Studi Trasparenza e Diritti Umani Digitali. Progetto Winston Smith è un’associazione senza fini di lucro che si occupa della difesa del diritto alla privacy in Rete e fuori e da altre organizzazioni, aziende ed associazioni. Contatti Per contatti generali e per la stampa: eprivacy@winstonsmith.org per i relatoricfp-eprivacy@winstonsmith.org Maggiori informazioni saranno pubblicate sul sito del Convegno non appenadisponibili, all'indirizzo e-privacy.winstonsmith.org. Vi aspettiamo.
Buongionro Marco, sono d'accordo praticamente su tutti i punti critici evidenziati nel testo della vostra call, tranne uno... "Marco A. Calamari" <marcoc_maillist@marcoc.it> writes: [...]
Dal riconoscimento del viso edel movimento è breve il passo verso il riconoscimento predittivo dei un“possibile” stato d’animo e potenziale d’azione. Tali sistemi, eredi di manipolazioni avvenute nel recente passato come quelle diCambridge Analytica, saranno presto in grado di determinare, di riflesso, intempo reale il comportamento delle persone, anche nel mondo fisico. Non si tratta di distopia, ma sistemi che oggi diversi Paesi (e non solo quellidiversamente democratici) stanno implementando pubblicamente con poche remore erare opposizioni.
Sono _sicuro_ che tali sistemi predittivi e di manipolazione sociale sono esistiti [1], esistono e verranno affinati E che abbiano provocato e provocheranno diseguaglianze, miseria, ingiustizie e guerre: in sostanza enormi sofferenze (oltre che fenomeni culturali peculiari come le "echo chambers", "filter bubble" e "fake news"... qualsiasi cosa voglia dire fake news). Sono però molto scettico sul fatto che tali sistemi possano «determinare in tempo reale il comportamento delle persone, anche nel mondo fisico». A me pare una (involontaria credo) esaltazione di una sorta di "determinismo sociale" ("determinismo psichico" alla Freud?) che ho seri dubbi abbia mai potuto funzionare in passato e che dubito possa funzionare anche con l'aiuto delle più sofisticate tecniche AI [2]... ma sono ignorante e potrei sbagliarmi. Attenzione che non sto affatto mettendo in dubbio in generale che i condizionamenti ambientali influenzino, a volte pesantemente, il comportamento umano e quindi sociale... solo che quelli derivanti dalle tecnologie digitali li _determinino_. Per favore tu o qualcuno in lista ferrato in materia potreste indicarmi (bastano link) studi scientifici che dimostrino, o almeno ipotizzino con un discreto supporto scientifico, che tali sistemi possano «determinare in tempo reale....»? Grazie! Giovanni [...] [1] anche ben prima che venissero impiegati calcolatori e machine learning [2] per limiti che IMHO molto ben illustrati in https://nooscope.ai/ e che arbitrariamente sintetizzerei in «Controversies cannot be conclusively computed. Machine learning is not the ultimate form of intelligence.» E «Machine learning is not bringing a new dark age but one of diffracted rationality, in which, as it will be shown, an episteme of causation is replaced by one of automated correlations. » -- Giovanni Biscuolo
Attenzione che non sto affatto mettendo in dubbio in generale che i condizionamenti ambientali influenzino, a volte pesantemente, il comportamento umano e quindi sociale... solo che quelli derivanti dalle tecnologie digitali li _determinino_. Per favore tu o qualcuno in lista ferrato in materia potreste indicarmi (bastano link) studi scientifici che dimostrino, o almeno ipotizzino con un discreto supporto scientifico, che tali sistemi possano «determinare in tempo reale....»? Grazie! Giovanni [… Per trovare studi sull’argomento suggerisco di cercare “real time affective computing” su scholar Esempio: Un mio studente ha sviluppato un videogioco con un componente ML in cui l’espressione facciale “arrabbiata” o “distesa” del giocatore determina diversa forma e diversa forza di gioco del suo avatar Piattaforma minima: smart phone Molto divertente e coinvolgente, ma certamente anche utile a raccogliere dati personali comportamentali e a condizionare il comportamento Un articolo recente: https://www.mdpi.com/1424-8220/20/3/870 Paolo Ciancarini
"batteria di pentole con allegata paperella di gomma in omaggio, prezzo ordiario 10.000 euro, solo per oggi e solo per i primi 20 clienti al prezzo eccezzionale di 99.99 euro. Telefonate subito o vi perderete questa fantastica opportunità" Saluti a tutti D. ________________________________ From: nexa <nexa-bounces@server-nexa.polito.it> on behalf of Giovanni Biscuolo <giovanni@biscuolo.net> Sent: Monday, March 15, 2021 2:49 PM To: Marco A. Calamari <marcoc_maillist@marcoc.it>; Nexa <nexa@server-nexa.polito.it> Subject: Re: [nexa] Lasciateci la Faccia - Call for Paper di e-privacy XXIX@RETE Buongionro Marco, sono d'accordo praticamente su tutti i punti critici evidenziati nel testo della vostra call, tranne uno... "Marco A. Calamari" <marcoc_maillist@marcoc.it> writes: [...]
Dal riconoscimento del viso edel movimento è breve il passo verso il riconoscimento predittivo dei un“possibile” stato d’animo e potenziale d’azione. Tali sistemi, eredi di manipolazioni avvenute nel recente passato come quelle diCambridge Analytica, saranno presto in grado di determinare, di riflesso, intempo reale il comportamento delle persone, anche nel mondo fisico. Non si tratta di distopia, ma sistemi che oggi diversi Paesi (e non solo quellidiversamente democratici) stanno implementando pubblicamente con poche remore erare opposizioni.
Sono _sicuro_ che tali sistemi predittivi e di manipolazione sociale sono esistiti [1], esistono e verranno affinati E che abbiano provocato e provocheranno diseguaglianze, miseria, ingiustizie e guerre: in sostanza enormi sofferenze (oltre che fenomeni culturali peculiari come le "echo chambers", "filter bubble" e "fake news"... qualsiasi cosa voglia dire fake news). Sono però molto scettico sul fatto che tali sistemi possano «determinare in tempo reale il comportamento delle persone, anche nel mondo fisico». A me pare una (involontaria credo) esaltazione di una sorta di "determinismo sociale" ("determinismo psichico" alla Freud?) che ho seri dubbi abbia mai potuto funzionare in passato e che dubito possa funzionare anche con l'aiuto delle più sofisticate tecniche AI [2]... ma sono ignorante e potrei sbagliarmi. Attenzione che non sto affatto mettendo in dubbio in generale che i condizionamenti ambientali influenzino, a volte pesantemente, il comportamento umano e quindi sociale... solo che quelli derivanti dalle tecnologie digitali li _determinino_. Per favore tu o qualcuno in lista ferrato in materia potreste indicarmi (bastano link) studi scientifici che dimostrino, o almeno ipotizzino con un discreto supporto scientifico, che tali sistemi possano «determinare in tempo reale....»? Grazie! Giovanni [...] [1] anche ben prima che venissero impiegati calcolatori e machine learning [2] per limiti che IMHO molto ben illustrati in https://nooscope.ai/ e che arbitrariamente sintetizzerei in «Controversies cannot be conclusively computed. Machine learning is not the ultimate form of intelligence.» E «Machine learning is not bringing a new dark age but one of diffracted rationality, in which, as it will be shown, an episteme of causation is replaced by one of automated correlations. » -- Giovanni Biscuolo
On Mon, 2021-03-15 at 15:49 +0100, Giovanni Biscuolo wrote:
Buongionro Marco, sono d'accordo praticamente su tutti i punti critici evidenziati neltesto della vostra call, tranne uno... "Marco A. Calamari" <marcoc_maillist@marcoc.it> writes: [...]
Dal riconoscimento del viso edel movimento è breve il passo verso ilriconoscimento predittivo dei un“possibile” stato d’animo e potenzialed’azione. Tali sistemi, eredi di manipolazioni avvenute nel recentepassato come quelle diCambridge Analytica, saranno presto in grado dideterminare, di riflesso, intempo reale il comportamento dellepersone, anche nel mondo fisico. Non si tratta di distopia, masistemi che oggi diversi Paesi (e non solo quellidiversamentedemocratici) stanno implementando pubblicamente con poche remore erareopposizioni.
Sono _sicuro_ che tali sistemi predittivi e di manipolazione socialesono esistiti [1], esistono e verranno affinati E che abbiano provocatoe provocheranno diseguaglianze, miseria, ingiustizie e guerre: insostanza enormi sofferenze (oltre che fenomeni culturali peculiari comele "echo chambers", "filter bubble" e "fake news"... qualsiasi cosavoglia dire fake news). Sono però molto scettico sul fatto che tali sistemi possano «determinarein tempo reale il comportamento delle persone, anche nel mondofisico». A me pare una (involontaria credo) esaltazione di una sorta di"determinismo sociale" ("determinismo psichico" alla Freud?) che ho seridubbi abbia mai potuto funzionare in passato e che dubito possafunzionare anche con l'aiuto delle più sofisticate tecniche AI [2]... masono ignorante e potrei sbagliarmi. Attenzione che non sto affatto mettendo in dubbio in generale che icondizionamenti ambientali influenzino, a volte pesantemente, ilcomportamento umano e quindi sociale... solo che quelli derivanti dalletecnologie digitali li _determinino_. Per favore tu o qualcuno in lista ferrato in materia potreste indicarmi(bastano link) studi scientifici che dimostrino, o almeno ipotizzino conun discreto supporto scientifico, che tali sistemi possano «determinarein tempo reale....»?
No, non sono in grado di segnalarti studi scientifici, perché la preoccupazione non viene dagli studi scientifici, ma da endorsement ed affermazioni come questa (te ne allego solo una, del 2015), provenienti da fonti considerate "titolate". https://www.accenture.com/_acnmedia/accenture/conversion-assets/landingpage/...
Grazie! Giovanni [...] [1] anche ben prima che venissero impiegati calcolatori e machine learning [2] per limiti che IMHO molto ben illustrati in https://nooscope.ai/ eche arbitrariamente sintetizzerei in «Controversies cannot beconclusively computed. Machine learning is not the ultimate form ofintelligence.» E «Machine learning is not bringing a new dark age butone of diffracted rationality, in which, as it will be shown, anepisteme of causation is replaced by one of automated correlations. »
Buongiorno, grazie mille che mi date retta e grazie delle segnalazioni, però... Paolo Ciancarini <paolo.ciancarini@unibo.it> writes:
Per trovare studi sull’argomento suggerisco di cercare “real time affective computing” su scholar
Ignoravo il settore del "Affective computing" [1] inaugurato nel 1997 da Rosalind Picard e AFAIU la sostanza è «The machine should interpret the emotional state of humans and adapt its behavior to them, giving an appropriate response to those emotions.»; non mi pare quindi che la disciplina di occupi di come determinare il comportamento umano. Comunque sia, come per altre discipline di studio ho profondo rispetto anche per questa ma disapprovo il suo utilizzo ai fini della sorveglianza (per esempio nella sorveglianza automatizzata durante gli esami) e mi auguro vivamente non venga mai utilizzata come versione 4.0 della futura (attuale?) macchina della verità, magari adottata nel processo penale o ancora peggio nella prevenzione del crimine (perché una certa forma di lombrosismo rimane latente). [1] https://en.wikipedia.org/wiki/Affective_computing [...] "Marco A. Calamari" <marcoc_maillist@marcoc.it> writes: [...]
No, non sono in grado di segnalarti studi scientifici, perché la preoccupazione non viene dagli studi scientifici, ma da endorsement ed affermazioni come questa (te ne allego solo una, del 2015), provenienti da fonti considerate "titolate".
https://www.accenture.com/_acnmedia/accenture/conversion-assets/landingpage/...
Se non leggo male dall'introduzione, si tratta di sistemi di sorveglianza finalizzati al controllo della sicurezza e all'ottimizzazione dei processi logistici: in quale parte si parla di "determinare il comportamento"? Non che non ci siano aspetti problematici in tali sistemi, ripeto. Saluti, Giovanni -- Giovanni Biscuolo
participants (4)
-
Diego Giorio -
Giovanni Biscuolo -
Marco A. Calamari -
Paolo Ciancarini