Il giorno 10 gennaio 2018 13:47, Diego Giorio <dgiorio@hotmail.com> ha scritto:
https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_m...
2018-01-10 13:56 GMT+01:00 Francesca Mauro <Francesca.Mauro@twobirds.com>:
Per chi non conosce il francese, un articolo in italiano del Prof. Pizzetti sul rapporto della CNIL che ne riassume il contenuto: https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-qual...
Salve, mi chiamo Giacomo Tesio, e il collega Antonio Vetro' mi ha recentemente suggerito questa mailing list a valle di una bella chiacchierata su temi analoghi. Vi propongo alcune considerazioni sui testi inglese e italiano, da un punto di vista tecnico (sono un programmatore). La prima, ovvia per chi conosce la materia, è che l'intelligenza artificiale è (per la stragrande maggioranza) statistica applicata. Da questa prospettiva la materia perde certamente moltissimo fascino commerciale, ma risulta molto più trattabile per i profani. Per esempio risulta chiaro perché gli "algoritmi" abbiano bisogno di grandissime moli di dati per funzionare. Se iniziamo a sostituire mentalmente ogni riferimento alla "intelligenza artificiale" con "applicazione statistica", molte problematiche diventano molto più semplici da trattare. Un esempio concreto: se un computer, sulla base di una statistica, suggerisce di pagare meno una lavoratrice rispetto ad un lavoratore, non si tratta di un oscuro "bias" in un insondabile cervello elettronico. Semplicemente, nella base dati fornita alla applicazione statistica le lavoratrici guadagnano meno. Una base di dati diversa fornirebbe ovviamente un risultato diverso. La responsabilità del "bias" non è della macchina, ma di chi ha creato il programma (scegliendo di utilizzare determinate tecniche statistiche rispetto ad altre), di chi ha fornito i dati e di chi, ultimamente, ha deciso di dargli ascolto. La qualità dei dati non deve diventare uno specchietto per le allodole: le aziende che operano in questo settore pongono grandissima attenzione alla veridicità dei dati, per massimizzare le proprie capacità predittive e dunque i propri profitti. Garbage in, garbage out. Vale per qualsiasi software (e per qualsiasi modello matematico, in effetti). Per contro, proprio "sporcare i dati" può essere un modo per tutelare la propria privacy e per sfuggire un pochino alla statistica, mantenendo autonomia decisionale. Con questo non intendo minimizzare il valore tecnico di alcune innovazioni nel campo, che sono estremamente affascinanti. Ma per quanto i comportamenti di un software possano essere difficili da spiegare (attività che noi programmatori quotidianamente chiamiamo debugging), sono sempre deterministici. Solo i processori quantistici (per il momento costosa fantascienza) potrebbero falsificare questa affermazione. E' importante che la tecnologia non diventi fumo negli occhi. Non è la macchina che discrimina, che manipola o che stabilisce un rapporto parassitico con l'essere umano. E' sempre un altro uomo (o un'organizzazione umana). Sempre. Senza eccezioni. Quindi c'è sempre un responsabile a cui chiedere conto. Questo è un aspetto fondamentale, che deve essere ben chiaro ai legislatori. Su questa linea una nota relativa al principio di lealtà (che effettivamente ricorda incredibilmente la legge 0 della robotica che guida R.Daneel Olivaw nell'universo di Asimov :-D): ha una importante implicazione sulla raccolta dei dati,
each algorithm should be loyal towards its users, not only as consumers but also as citizens, or even as collectives, communities who can also be significantly impacted by these technologies.
La raccolta di dati personali tutelati dalla privacy è sempre meno necessaria per prevedere i comportamenti di un individuo. La semplice presenza, anonima, di un individuo in una certa zona fisica (calcolabile anche senza GPS, banalmente triangolando la distanza dalle antenne del suo cellulare) rende statisticamente prevedibile parte del suo comportamento. Se il movimento del cellulare avviene in sincrono con quello di altri cellulari, alla medesima velocità, possiamo dedurne che i proprietari stanno camminando o viaggiando insieme. Costituiscono una flotta. Dalla loro numerosità possiamo determinare se si tratti di turisti o di una famiglia. In determinati luoghi (pensate alle nostre bellissime città storiche) possiamo prevederne il tragitto. Potenzialmente possiamo provare a dirigerne l'attenzione attraverso cartelli pubblicitari e osservarne le reazioni, raffinando le nostre previsioni successive. Tutto questo senza violare in alcun modo la loro privacy. Poco importa se il 20% della popolazione sfugge alla griglia di comportamenti che riusciamo a dirigere, il restante 80% sarà sufficientemente redditizio. Deve essere chiaro che per quanto utile, sarà sempre meno necessario conoscere dati personali identificabili, per effettuare previsioni accurate e manipolazioni statisticamente efficaci. Se vogliamo tutelare le comunità, dobbiamo ampliare l'attenzione oltre la protezione dei dati personali individuali. Dobbiamo iniziare a tutelare le informazioni anonime collettive. Detto questo, scusate il pippotto... :-D A presto! Giacomo