Buongiorno Alberto, grazie mille per la segnalazione! Alberto Cammozzo via nexa <nexa@server-nexa.polito.it> writes:
Questo mi pare il primo vero punto di svolta nella realizzazione di una protezione preventiva della privacy visuale online da quando il riconoscimento facciale è entrato nell'ecosistema digitale.
Sì potrebbe essere una svolta, interessante progetto: https://github.com/Shawn-Shan/fawkes --8<---------------cut here---------------start------------->8--- Copyright This code is intended only for personal privacy protection or academic research. We are currently exploring the filing of a provisional patent on the Fawkes algorithm. --8<---------------cut here---------------end--------------->8--- In realtà è software libero (in python) con licenza BSD "3-clause" Mi auguro vivamente che decidano di NON brevettare l'algoritmo.
Mi vengono queste domande: - questa alterazione è rilevabile e reversibile? E' l'inizio di una arms race? - La perturbazione regge anche al passaggio analogico? Che succede se stampo la foto alterata per introdurla ad es. nel passaporto elettronico?
Questa giornalista ha riscontrato un problema con le immagini alterate, che erano alterate anche "a occhio nudo": https://www.nytimes.com/2020/08/03/technology/fawkes-tool-protects-photos-fr... --8<---------------cut here---------------start------------->8--- I then uploaded the originals and the cloaked images to Facebook to see if they fooled the social network’s facial recognition system. It worked: Facebook tagged me in the original photo but did not recognize me in the cloaked version. However, the changes to the photos were noticeable to the naked eye. In the altered images, I looked ghoulish, my 3-year-old daughter sprouted what looked like facial hair, and my husband appeared to have a black eye. The researchers had a few explanations for this. One is that the software is designed to match you with the face template of someone who looks as much unlike you as possible, pulling from a database of celebrity faces. That usually ends up being a person of the opposite sex, which leads to obvious problems. --8<---------------cut here---------------end--------------->8--- Inoltre, PARE che a questo punto a Clearview &C. non gliene importa più nulla perché hanno tonnellate di immagini a disposizione: --8<---------------cut here---------------start------------->8--- But Clearview’s chief executive, Hoan Ton-That, ran a version of my Facebook experiment on the Clearview app and said the technology did not interfere with his system. In fact, he said, his company could use images cloaked by Fawkes to improve its ability to make sense of altered images. “There are billions of unmodified photos on the internet, all on different domain names,” Mr. Ton-That said. “In practice, it’s almost certainly too late to perfect a technology like Fawkes and deploy it at scale.” Other experts were also skeptical that Fawkes would work. Joseph Atick, a facial recognition pioneer who has come to regret the surveillance society he helped to create, said the volume of images of ourselves that we had already made available would be too hard to overcome. --8<---------------cut here---------------end--------------->8---
- Chi realizzerà per primo il plugin per browser che altera i volti prima dell'upload? - Quali piattaforme offriranno questa feature a chi carica le proprie foto?
Cigliegina sulla torta: --8<---------------cut here---------------start------------->8--- “I’m actually interning on that exact team at Facebook right now,” said the Fawkes co-creator Mr. Shan. --8<---------------cut here---------------end--------------->8--- - Chi comprerà per primo la startup/spinoff di Fawkes per usarla come vantaggio competitivo contro gli altri? (del tipo Facebook che pubblica le versioni inquinate delle foto ma al suo interno indicizza quelle originali per creare un grafo sociale più efficace) ...soprattutto SE l'algoritmo verrà brevettato. [...] Ciao, Giovanni. -- Giovanni Biscuolo