On 09/08/2020 17:51, Giacomo Tesio wrote:
Il August 9, 2020 3:11:21 PM UTC, Giovanni Biscuolo <giovanni@biscuolo.net> ha scritto:
But Clearview’s chief executive, Hoan Ton-That, ran a version of my Facebook experiment on the Clearview app and said the technology did not interfere with his system. In fact, he said, his company could use images cloaked by Fawkes to improve its ability to make sense of altered images.
“There are billions of unmodified photos on the internet, all on different domain names,” Mr. Ton-That said. “In practice, it’s almost certainly too late to perfect a technology like Fawkes and deploy it at scale.”
Other experts were also skeptical that Fawkes would work. Joseph Atick, a facial recognition pioneer who has come to regret the surveillance society he helped to create, said the volume of images of ourselves that we had already made available would be too hard to overcome.
Personalmente credo che vendere questo programma come protezione per la privacy sia molto discutibili.
In pratica, chi lo usa, produce gratuitamente dati per calibrare una adversarial neural network in grado di migliorare gli algoritmi di facial recognition.
Quanto al fatto che sia troppo tardi, non sono d'accordo: possiamo insegnare ai ragazzi a NON diffondere proprie immagini su internet.
La nostra generazione è stata ingenua ed ignorante, ma la prossima non è ancora del tutto perduta.
Giacomo
Gli utenti delle piattaforme social non hanno consapevolezza dell'uso delle loro foto o meglio non vogliono averne. Chi sa a cosa servono i dati che fornisce si guarda bene dall'entrarci. Pensandoci bene Fawkes è un sistema di protezione delle piattaforme contro l'appropriazione da parte di altri soggetti (come Clearview) e non un sistema di protezione per gli utenti (almeno al momento). Serve soprattutto a Facebook (che ha pagato la ricerca), ma molto meno ai suoi utenti. Le piattaforme devono proteggere le immagini degli utenti da sistemi come Clearview che se ne appropriano, perché possono inibire la propensione degli utenti a condividere immagini. In mancanza di un quadro giuridico chiaro le piattaforme installeranno sistemi tecnici di protezione dal riconoscimento facciale come Fawkes solo sulle immagini offerte in rete, lasciando pulite quelle "per uso interno". Il riconoscimento facciale degli utenti di FB funzionerà all'interno di FB ma non per Clearview. Clearview può minimizzare l'impatto sul proprio già traballante business, ma ha bisogno di dati aggiornati: se non acquisisce dati nuovi tra 3 anni è fuori mercato. Le agenze governative (molte sono clienti di Clearview) sono interessate ai dati non inquinati, per cui dove possono faranno vietare il cloacking o si garantiranno comunque accesso diretto ai dati puliti. Questo in teoria. In pratica ogni tecnologia ha conseguenze inattese. Ne vedo una che riguarda i passaporti biometrici: se il cloaking funziona anche attraverso l'analog bridge stampa-scansione, questo comporterà che le foto dei passaporti biometrici andranno scattate in questura, e non acquisite dalle stampe fornite all'utente. Ho chiesto a Ben Zhao: proverà a vedere se il cloacking resiste alla stampa: <https://twitter.com/ravenben/status/1292229125969780737> ciao! Alberto