Another facial recognition firm sees money in biometric mining | Biometric Update
Vedo solo due modi per far smettere gli sciacalli della face recognition che monetizzano l'abbondanza di foto personali online e ristabilire l'equilibrio informativo: o si vieta la tecnologia per tutti, o la si liberalizza per tutti, cosicchè tutti possono vedere quali sono le foto online con la propria faccia, non solo quelli che pagano uno di tanti servizi. Così magari qualcuno decide di toglierele, le proprie foto. Il primo che fa un servizio free di online face recognition spazza via tutto questo squallido mercato. E' solo un motore di ricerca... Potrebbe essere un progetto europeo. Alberto <https://www.biometricupdate.com/202006/another-facial-recognition-firm-sees-...> Executives at a Polish facial recognition service firm, PimEyes, say their software can look at an uploaded image and locate other images of that person online. The service is similar to but more limited than Clearview AI‘s controversial face-scraping application. It also is not unlike a legacy service from a Russian neural network company that at one time searched social media profiles for matches to uploaded images. PimEyes’ free tool searches only sites and platforms — including some social media sites — that are open to the public. Revenue is generated through premium services, according to media reports. According to technology news site OneZero, premium features include getting alerts every time the tool recognizes a newly uploaded image matching one submitted by a customer. Search alerts can be set for up to 25 people. There is a basic, 24-hour, account that costs $9.99, and allows for one alert. A so-called professional subscription is $14.69 per month, and provides multiple alerts. The company also sells access to its database to developers, with a maximum of 100 million searches per month. PimEyes’ site indicates that this level costs $19.99 “+$100 credits for start.” It is not explained what that fee buys in terms of access time or number of comparisons. It is hard to find a similar service that has proven successful and free of controversy. Clearview AI continues to sell subscriptions through which organizations, namely law enforcement agencies, try to match uploaded images against the 3 billion to 4 billion photos that the company has scraped from social media platforms and other sources. But it is mired in multiple lawsuits that threaten to multiply. And the leaders of social media sites — among the wealthiest one-percenters on the planet — are increasingly agitated that their members are being farmed by someone other than themselves. In its early days NtechLab marketed FindFace, a tool with which a person could take a picture of literally anyone anywhere with a digital camera and match it against the world’s social media images. NtechLab has moved on from what it called a dating app to government surveillance. A Forbes article in January 2020 indicates that the company has been paid at least $3.2 million to plug its algorithm into the tens of thousands of municipal surveillance cameras around Moscow.
On Wednesday, 10 June 2020, Alberto Cammozzo <ac+nexa@zeromx.net> wrote:
Il primo che fa un servizio free di online face recognition spazza via tutto questo squallido mercato.
O lo monopolizza?
E' solo un motore di ricerca... Potrebbe essere un progetto europeo.
Un progetto comunque pericoloso. I modelli di attacco possibili sono moltissimi, sia da singoli cittadini, che da aziende e governi.
Così magari qualcuno decide di toglierele, le proprie foto.
Toglierle è tecnicamente impossibile. Si può solo chiedere umilmente a coloro cui sono state stupidamente affidate se, per favore, possono renderle inaccessibili al pubblico ingenuo. Ma gli scapers che le hanno salvate? Le cache? L'unico modo per proteggere un'informazione (come il volto ritratto da una foto) è bloccarla alla fonte. La legge, la politica contemporanea, è impotente su questo terreno, anche se si rifiuta di ammetterlo. E quando lo ammette, lo fa per riconoscere la propria sudditanza, la superiorità dei "giganti del Web". L'unica speranza è l'educazione informatica delle prossime generazioni. Giacomo
Buongiorno Alberto, mi scuso con te e con la lista per l'ennesima ripetizione del mio mantra: gnu:net, gnu:net... gnu:net :-) Alberto Cammozzo <ac+nexa@zeromx.net> writes:
Vedo solo due modi per far smettere gli sciacalli della face recognition che monetizzano l'abbondanza di foto personali online e ristabilire l'equilibrio informativo: o si vieta la tecnologia per tutti, o la si liberalizza per tutti,
Non è già liberalizzata? Ci vuole un permesso speciale? So che in alcune (molte?) giurisdizioni c'è una moratoria che sta rendendo difficile lo sviluppo di questi servizi, ma il mondo è grande. No?
cosicchè tutti possono vedere quali sono le foto online con la propria faccia, non solo quelli che pagano uno di tanti servizi. Così magari qualcuno decide di toglierele, le proprie foto.
E poi come fa a condividerle con amici e parenti (oltre che con Faceboogle?)
Il primo che fa un servizio free di online face recognition spazza via tutto questo squallido mercato. E' solo un motore di ricerca... Potrebbe essere un progetto europeo.
Oppure ci potremmo impegnare per rifare da capo quelle 10/11 "cose" di Internet fatte male, ma proprio male male male (ormai ci sono quintalate di prove scientifiche), per fare in modo che gli utenti abbiano il pieno controllo di che fine fanno le proprie informazioni online [1]... "by design" Per il file sharing (e molto altro di "backend", tipo GNS e re:claim:ID): https://gnunet.org/en/ Per comunicare: https://secushare.org/ (in particolare «Here's what we mean by safe:») ...un mondo in cui non ci sarà più bisogno delle "piattaforme social" per scambiarsi foto e diari o per comunicare: ne vale la pena. Come bonus avremmo anche un sistema di pagamento elettronico rispettoso della riservatezza di chi paga: https://taler.net/ Chissà se - come una sorta di miracolo laico - tutto questo un giorno farà parte dei piani di coloro che decidono come si devono spendere le nostre risorse (mica le briciole come oggi). C'è anche un progetto Europeo https://www.ngi.eu/ ma... boh?!? Pare (ma non ci sono dichiarazioni ufficiali, è solo una "sensazione" da quello che osservo) che non ci sia il sufficiente coraggio di fare il necessario; secondo me è solo cosmesi (o ethics washing?). [...] Saluti, Giovanni [1] che non vuol dire che possono controllare tutte le evantuali copie delle informazioni che i loro destinatari ricevono, neh!?! -- Giovanni Biscuolo
Grazie a Giacomo e Giovanni per le risposte. Dovrò articolare il regionamento. Premetto che vorrei che il riconoscimento facciale fosse vietato come è vietato preparare armi batteriologiche: non solo non può farlo il cittadino, ma nemmeno può farlo una compagnia privata, e nemmeno i governi. Se lo fanno è violando accordi espliciti. I rischi connessi sopravanzano di gran lunga i vantaggi. Tuttavia vedo che l'orientamento attuale è quello della moratoria, del bando in casi specifici o peggio dell'obbligo all'informazione in caso di impiego. Questo scenario garantisce che il livello di allarme del pubblico sia minimo e lo sviluppo della tecnologia continui ad uso di chi può pagarla. Se invece si ristabilisse l'asimmetria informativa, si potrebbe ottenere un allarme maggiore derivante dalla consapevolezza delle conseguenze della diffusione delle immagini, comportamenti più responsabili, e magari il bando della FR. Venendo alle volsre considerazioni: perché dunque l'utente medio dovrebbe usare GNU:Net o educare all'uso sano dell'informatica se non ne vede i vantaggi? Continuerà a usare FB, e G e Whatzap e vivere felice... Al contrario, se potessero vedere con i proprio occhi quello che vedono coloro che hanno in mano un motore di riconoscimento di riconoscimento facciale, avrebbero consapevolezza del rischio e il livello di allarme raggiungerebbe il livello necessario per innescare comportamenti virtuosi. A meno che il legislatore non intervenga (giustamente) a tutela del cittadino, eviti il far west e bandisca la tecnologia. Aggiungo una congettura: un motore di riconoscimento facciale non è attualmente regolato, nemmeno in UE, con certi accorgimenti. Scenario: - Faccio crawling delle immagini in rete, - estraggo le features delle facce (senza conservare le immagini), - creo un UUID per ogni faccia diversa e un indice {UUID: [url, url, ...]} con l'elenco degli URL in cui quella faccia compare. - data una faccia input, restituisco la lista delle URL. Opzionalemente anche altre amenità come il grafo url-UUID. {url: UUID, UUID, ...} Quesito: violo il GDPR? Congettura: non lo violo. Recital 51: “Il trattamento di fotografie non dovrebbe costituire sistematicamente un trattamento di categorie particolari di dati personali, poiché esse rientrano nella definizione di dati biometrici soltanto quando [...] trattate attraverso un dispositivo tecnico specifico che consente l'identificazione univoca o l'autenticazione di una persona fisica.” Recital 26 : – Il regolamento non si applica al trattamento di informazioni anonime [...]. E' vero che (Recital 26) – I dati personali sottoposti a pseudonimizzazione, i quali potrebbero essere attribuiti a una persona fisica mediante l'utilizzo di ulteriori informazioni, dovrebbero essere considerati informazioni su una persona fisica identificabile. Ma in tal caso (9.2) il trattamento è normalmente consentito perché la persona ha presumibilmente prestato il proprio consenso esplicito e l'immagine è pubblicamente accessibile. Se non lo ha fatto ha diritto a veder rimossa la foto illegalmente detenuta e presentata. Spero di essere severamente smentito dagli esperti. Solo con un motore di questo tipo (e di privati ce ne sono molti) posso sapere dove nel web ci sono foto che mi raffigurano. Ciao, Alberto On 11/06/2020 10:52, Giovanni Biscuolo wrote:
Buongiorno Alberto,
mi scuso con te e con la lista per l'ennesima ripetizione del mio mantra: gnu:net, gnu:net... gnu:net :-)
Alberto Cammozzo <ac+nexa@zeromx.net> writes:
Vedo solo due modi per far smettere gli sciacalli della face recognition che monetizzano l'abbondanza di foto personali online e ristabilire l'equilibrio informativo: o si vieta la tecnologia per tutti, o la si liberalizza per tutti, Non è già liberalizzata? Ci vuole un permesso speciale? So che in alcune (molte?) giurisdizioni c'è una moratoria che sta rendendo difficile lo sviluppo di questi servizi, ma il mondo è grande. No?
cosicchè tutti possono vedere quali sono le foto online con la propria faccia, non solo quelli che pagano uno di tanti servizi. Così magari qualcuno decide di toglierele, le proprie foto. E poi come fa a condividerle con amici e parenti (oltre che con Faceboogle?)
Il primo che fa un servizio free di online face recognition spazza via tutto questo squallido mercato. E' solo un motore di ricerca... Potrebbe essere un progetto europeo. Oppure ci potremmo impegnare per rifare da capo quelle 10/11 "cose" di Internet fatte male, ma proprio male male male (ormai ci sono quintalate di prove scientifiche), per fare in modo che gli utenti abbiano il pieno controllo di che fine fanno le proprie informazioni online [1]... "by design"
Per il file sharing (e molto altro di "backend", tipo GNS e re:claim:ID): https://gnunet.org/en/
Per comunicare: https://secushare.org/ (in particolare «Here's what we mean by safe:»)
...un mondo in cui non ci sarà più bisogno delle "piattaforme social" per scambiarsi foto e diari o per comunicare: ne vale la pena.
Come bonus avremmo anche un sistema di pagamento elettronico rispettoso della riservatezza di chi paga: https://taler.net/
Chissà se - come una sorta di miracolo laico - tutto questo un giorno farà parte dei piani di coloro che decidono come si devono spendere le nostre risorse (mica le briciole come oggi).
C'è anche un progetto Europeo https://www.ngi.eu/ ma... boh?!? Pare (ma non ci sono dichiarazioni ufficiali, è solo una "sensazione" da quello che osservo) che non ci sia il sufficiente coraggio di fare il necessario; secondo me è solo cosmesi (o ethics washing?).
[...]
Saluti, Giovanni
[1] che non vuol dire che possono controllare tutte le evantuali copie delle informazioni che i loro destinatari ricevono, neh!?!
On 11/06/2020, Alberto Cammozzo <ac+nexa@zeromx.net> wrote:
Dovrò articolare il regionamento.
Un hack brillante. C'è proprio da sperare che Claudio Agosti non legga la tua email! Perché con librerie come questa https://github.com/ageitgey/face_recognition#command-line-interface un prototipo funzionante per gli adulti europei si butta giù in pochi giorni.
Tuttavia vedo che l'orientamento attuale è quello della moratoria, del bando in casi specifici o peggio dell'obbligo all'informazione in caso di impiego.
Questo scenario garantisce che il livello di allarme del pubblico sia minimo e lo sviluppo della tecnologia continui ad uso di chi può pagarla.
Vero.
Se invece si ristabilisse l'asimmetria informativa, si potrebbe ottenere un allarme maggiore derivante dalla consapevolezza delle conseguenze della diffusione delle immagini, comportamenti più responsabili, e magari il bando della FR.
L'hack è brillante, ma non sono certo che funzionerebbe. Dal punto di vista politico, intendo. Negli Stati Uniti puoi comprare armi liberamente, nonostante le sparatorie e le stragi. D'altro canto, dopo un paio di morti scandalose, si fantastica di meno sulle self-driving cars.
Aggiungo una congettura: un motore di riconoscimento facciale non è attualmente regolato, nemmeno in UE, con certi accorgimenti.
Scenario: - Faccio crawling delle immagini in rete, - estraggo le features delle facce (senza conservare le immagini), - creo un UUID per ogni faccia diversa e un indice {UUID: [url, url, ...]} con l'elenco degli URL in cui quella faccia compare. - data una faccia input, restituisco la lista delle URL. Opzionalemente anche altre amenità come il grafo url-UUID. {url: UUID, UUID, ...}
Quesito: violo il GDPR?
Congettura: non lo violo.
L'hack è interessante anche perché, per sapere se il tuo db contiene la propria faccia (ed eventualmente richiederne la cancellazione), l'utente deve consentire al trattamento e fornirti la sua faccia. Dunque potenzialmente tu, se quella faccia non ce l'avevi, la acquisisci nel momento della richiesta. Tuttavia credo che il GDPR verrebbe violato dallo scraping perché elaboreresti le foto di persone senza ricevere il consenso a tale trattamento. Inoltre molte URI delle foto conterranno dati personali, permettendo di per sé stesse di identificare la persona cui la foto fa riferimento. Detto questo, se il sistema NON lo pubblichi... ;-) Ma davvero dobbiamo creare una costruire una bomba atomica perché i politici si accorgano che è pericolosa? Giacomo
Caro Alberto, Alberto Cammozzo <ac+nexa@zeromx.net> writes:
Grazie a Giacomo e Giovanni per le risposte. Dovrò articolare il regionamento.
Grazie per aver articolato il tuo ragionamento.
Premetto che vorrei che il riconoscimento facciale fosse vietato come è vietato preparare armi batteriologiche:
Non sono per nulla d'accordo sul fatto che un algoritmo, "tradotto" in programma attraverso un linguaggio di programmazione, possa essere vietato per legge. :-) Sul parallelo tra software e armi batteriologiche come sempre vado in segfault, quindi boh.
non solo non può farlo il cittadino, ma nemmeno può farlo una compagnia privata, e nemmeno i governi. Se lo fanno è violando accordi espliciti. I rischi connessi sopravanzano di gran lunga i vantaggi.
Capisco benissimo i rischi connessi all'utilizzo di questi algoritmi e sono allarmato quanto te e molti altri su questa lista dell'utilizzo *brutale* che ne fanno aziende private e forze di polizia, ma non è criminalizzando gli algoritmi che si risolvono le cose; anche (soprattutto) perché si comincerebbe rendendo illegale un algoritmo e non credo che dove si andrebbe a finire ci piacerebbe così tanto, visto che a decidere cosa è illegale o meno sono gli stessi che usano queste tecniche per tentare di tenere sotto controllo __gli altri__. Per fare un esempio di RF del tutto innoquo: nel mio piccolo, in un recente passato avevo sperimentato le funzioni di riconoscimento facciale delle **mie** foto perché mi pare comodo che io abbia la possibilità di identificare automaticamente - con un certo grado di errore - le foto delle miei nipoti senza doverle "taggare" tutte a mano. Le **mie** foto (e quelle che mi hanno passato amici e parenti, fidandosi di me) sono tutte su **miei** dispositivi locali, non pubbliche e non pubblicate. Quindi con "bando del riconoscimento facciale" dove ci dobbiamo fermare? [...]
Se invece si ristabilisse l'asimmetria informativa, si potrebbe ottenere un allarme maggiore derivante dalla consapevolezza delle conseguenze della diffusione delle immagini, comportamenti più responsabili, e magari il bando della FR.
Quindi siccome tante persone sono irresponsabili a pubblicare foto a disposizione di chiunque (quantomento dei proprietari delle "piattaforme") dobbiamo "vietare il software"? ...oppure ho capito male io la tua idea di messa al bando?
Venendo alle volsre considerazioni: perché dunque l'utente medio dovrebbe usare GNU:Net o educare all'uso sano dell'informatica se non ne vede i vantaggi? Continuerà a usare FB, e G e Whatzap e vivere felice...
Se l'utente medio pensa che le sue foto su FB sono davvero priate e non vedrebbe vantaggi nell'usare un sistema di comunicazione anonimo, nel quale sarebbe garantito che le sue informazioni arrivino *solo* ai destinatari e dove __non_esisterebbero__ dati memorizzati e intellegibili al di fuori dei computer sotto il proprio diretto controllo... allora è giusto che continui a usare FB, ecc, ecc Diciamo che se gnu:net fosse più maturo e diffuso io potrei condividere più facilmente le informazioni di famiglia e con quei quattro amici che ho: vorrei essere libero di scegliere.
Al contrario, se potessero vedere con i proprio occhi quello che vedono coloro che hanno in mano un motore di riconoscimento di riconoscimento facciale, avrebbero consapevolezza del rischio e il livello di allarme raggiungerebbe il livello necessario per innescare comportamenti virtuosi.
Tipo: se non vedo non ci credo? Non ci sono già abbastanza evidenze schiaccianti dell'inopportunità di "regalare" le proprie esistenze digitali a coloro che fanno di tutto per condizionarci su tutti gli aspetti della nostra esistenza, controllarci e purtroppo a volte reprimerci? Le nostre immagini sono solo **uno** degli aspetti delle nostre esistenze digitali: conversazioni email, chat, dati di geolocalizzazione, dati sanitari, prestazioni scolastiche...
A meno che il legislatore non intervenga (giustamente) a tutela del cittadino, eviti il far west e bandisca la tecnologia.
La soluzione non è meno tecnologia (in questo caso di riconoscimento facciale) ma tecnologia migliore. Immagina una tecnologia che permettesse a ciascuno di noi di scambiare, anche in gruppo ovviamente, *qualsiasi* informazione digitale, foto comprese, con la sicurezza - by design - che nessuno al di fuori dei destinatari sia in grado di interpretarla: si può fare. (Il "trucco" è iniziare a superare il triste paradigma di password/utente e avere una vera identità digitale). Ovvio che se io decidessi di rendere pubblica un'informazione, foto compresa, difficilmente potrei pretendere che non se ne faccia uso. [...]
Quesito: violo il GDPR?
Il GDPR è troppo limitato e troppo complicato... ma è OT qui. [...] Grazie, Giovanni. -- Giovanni Biscuolo
On Friday, 12 June 2020, Giovanni Biscuolo <giovanni@biscuolo.net> wrote:
Premetto che vorrei che il riconoscimento facciale fosse vietato come è vietato preparare armi batteriologiche:
Non sono per nulla d'accordo sul fatto che un algoritmo, "tradotto" in programma attraverso un linguaggio di programmazione, possa essere vietato per legge. :-)
Vero. Sarebbe esattamente come vietare la scrittura di certi libri. Tuttavia si possono vietare certi business model. Lo spaccio di droghe è un esempio. Come si potrebbe vietare la vendita di videogiochi violenti, senza vietarne la creazione, si può vietare di vendere sistemi di riconoscimento facciale o di sorveglianza di massa. Si potrebbe vietarne l'uso governativo e militare. Si potrebbe vietare i business model basati sul traffico e sull'accumulo di informazioni di terze parti, come il marketing personalizzato. Di per sé, questo tipo di messa al bando non garantirebbe la sicurezza dei cittadini, ma ne allenterebbe un po' le catene e forse ci darebbe il tempo per prepararli. Non credo però che spaventare la popolazione sia una strada efficace. I politici più abili nell'approfittare delle paure di massa non sono quelli che le affrontano con competenza e razionalità. Giacomo
Ciao Giacomo, Giacomo Tesio <giacomo@tesio.it> writes: [...]
Si potrebbe vietare i business model basati sul traffico e sull'accumulo di informazioni di terze parti, come il marketing personalizzato.
Ecco qui già intravedo una via d'uscita, anche per il "biometric mining", che già solo la parola provoca sdegno. Probabilmente sarebbe anche il caso che coloro che si occupano di "marketing" in questo modo si rendessero conto di quanto risultano fattualmente molesti nel tentare di convincere oltre ogni ragionevole decenza intellettuale che tu, precisamente tu, hai bisogno di quel preciso prodotto. Arrendetevi: concentratevi sulla qualità dei vostri prodotti e servizi invece che sul «nudge marketing». La pubblicità sarà anche l'anima del commercio ma la pubblicità che ti riconosce e ti profila è l'anima di cosa? Ecco: la pubblicità che ti riconosce dovrebbe essere **vietata**, con un paio di articoli ben fatti supereremmo di slancio il 70% del GDPR (numero sparato a caso). Come piacevole conseguenza collaterale probabilmente i business model basati sul traffico e sull'accumulo di informazioni di terze parti sarebbero in perdita perché inutilizzabili, quindi probabilmente sparirebbero. Rimane il fatto che se l'accumulo di informazioni di terze parti non consenzienti diventasse *impossibile* by design per mezzo di adeguati mezzi tecnologici, buona parte della faccenda *forse* si protrebbe risolvere senza vietare nulla. Ciao. Gio' [...] -- Giovanni Biscuolo
participants (3)
-
Alberto Cammozzo -
Giacomo Tesio -
Giovanni Biscuolo