Come consentire all'uomo di mantenere la supremazia
Non mi sembra sia ancora passato in lista, nel caso mi scuso per la duplicazione: per chi legge il francese, un interessante rapporto della Commissione Informatica e Libertà sull'intelligenza artificiale ed etica degli algoritmi Saluti e Buon 2018 a tutti D.
Ooops, non mi aveva incollato il link: <http://www.lastampa.it/2018/01/07/motori/tecnologia/lauto-impara-a-chiamare-i-soccorsi-dal-ecall-obbligatorio-su-tutti-i-modelli-nuovi-n6cxG3v2gfUkDZNqYNvo6J/pagina.html>https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf DÉCEMBRE 2017 - cnil.fr<https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_m...> www.cnil.fr DÉCEMBRE 2017 COMMENT PERMETTRE À L’HOMME DE GARDER LA MAIN ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle SYNTHÈSE DU DÉBAT PUBLIC ... ________________________________ From: nexa <nexa-bounces@server-nexa.polito.it> on behalf of Diego Giorio <dgiorio@hotmail.com> Sent: Wednesday, January 10, 2018 12:45 PM To: Nexa Subject: [nexa] Come consentire all'uomo di mantenere la supremazia Non mi sembra sia ancora passato in lista, nel caso mi scuso per la duplicazione: per chi legge il francese, un interessante rapporto della Commissione Informatica e Libertà sull'intelligenza artificiale ed etica degli algoritmi Saluti e Buon 2018 a tutti D.
Grazie, Diego! C'è anche una sintesi in inglese: https://www.cnil.fr/en/how-can-humans-keep-upper-hand-report-ethical-matters... Un bel report, IMHO. Saluti e buon anno a tutti, Monica Il giorno 10 gen 2018, alle ore 13:47, Diego Giorio <dgiorio@hotmail.com> ha scritto: Ooops, non mi aveva incollato il link: https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_m... DÉCEMBRE 2017 - cnil.fr www.cnil.fr DÉCEMBRE 2017 COMMENT PERMETTRE À L’HOMME DE GARDER LA MAIN ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle SYNTHÈSE DU DÉBAT PUBLIC ... From: nexa <nexa-bounces@server-nexa.polito.it> on behalf of Diego Giorio <dgiorio@hotmail.com> Sent: Wednesday, January 10, 2018 12:45 PM To: Nexa Subject: [nexa] Come consentire all'uomo di mantenere la supremazia Non mi sembra sia ancora passato in lista, nel caso mi scuso per la duplicazione: per chi legge il francese, un interessante rapporto della Commissione Informatica e Libertà sull'intelligenza artificiale ed etica degli algoritmi Saluti e Buon 2018 a tutti D. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Per chi non conosce il francese, un articolo in italiano del Prof. Pizzetti sul rapporto della CNIL che ne riassume il contenuto: https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-qual... From: nexa [mailto:nexa-bounces@server-nexa.polito.it] On Behalf Of Diego Giorio Sent: mercoledì 10 gennaio 2018 13:48 To: Nexa Subject: Re: [nexa] Come consentire all'uomo di mantenere la supremazia Ooops, non mi aveva incollato il link: https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf<https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf> DÉCEMBRE 2017 - cnil.fr<https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_m...> www.cnil.fr<http://www.cnil.fr> DÉCEMBRE 2017 COMMENT PERMETTRE À L’HOMME DE GARDER LA MAIN ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle SYNTHÈSE DU DÉBAT PUBLIC ... ________________________________ From: nexa <nexa-bounces@server-nexa.polito.it<mailto:nexa-bounces@server-nexa.polito.it>> on behalf of Diego Giorio <dgiorio@hotmail.com<mailto:dgiorio@hotmail.com>> Sent: Wednesday, January 10, 2018 12:45 PM To: Nexa Subject: [nexa] Come consentire all'uomo di mantenere la supremazia Non mi sembra sia ancora passato in lista, nel caso mi scuso per la duplicazione: per chi legge il francese, un interessante rapporto della Commissione Informatica e Libertà sull'intelligenza artificiale ed etica degli algoritmi Saluti e Buon 2018 a tutti D. BIRD & BIRD For information on the international legal practice comprising Bird & Bird LLP and its affiliated and associated businesses (together "Bird & Bird"), our offices, our members and partners, regulatory information, privacy, complaints procedure and the use of e-mail see www.twobirds.com/LN Any e-mail sent from Bird & Bird may contain information which is confidential and/or privileged. Unless you are the intended recipient, you may not disclose, copy or use it; please notify the sender immediately and delete it and any copies from your systems. You should protect your system from viruses etc.; we accept no responsibility for damage that may be caused by them. To the extent permitted by law, we may monitor electronic communications for the purposes of ensuring compliance with our legal and regulatory obligations and internal policies. We may also collect email traffic headers for analysing patterns of network traffic and managing client relationships. For further information see www.twobirds.com/LNPrivacy For the terms on which we receive from, hold for or make available to a client or third party client money see www.twobirds.com/CM Studio Legale Bird & Bird Italy is a multidisciplinary partnership formed under Italian law with offices in Italy, Via Borgogna 8, 20122 Milan and Via Flaminia, 133 - 00196 Rome - Italy. The applicable professional regulations in the Codice deontologico forense are at www.consiglionazionaleforense.it/site/home/area-avvocati/codice-deontologico-forense.html
Il giorno 10 gennaio 2018 13:47, Diego Giorio <dgiorio@hotmail.com> ha scritto:
https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_m...
2018-01-10 13:56 GMT+01:00 Francesca Mauro <Francesca.Mauro@twobirds.com>:
Per chi non conosce il francese, un articolo in italiano del Prof. Pizzetti sul rapporto della CNIL che ne riassume il contenuto: https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-qual...
Salve, mi chiamo Giacomo Tesio, e il collega Antonio Vetro' mi ha recentemente suggerito questa mailing list a valle di una bella chiacchierata su temi analoghi. Vi propongo alcune considerazioni sui testi inglese e italiano, da un punto di vista tecnico (sono un programmatore). La prima, ovvia per chi conosce la materia, è che l'intelligenza artificiale è (per la stragrande maggioranza) statistica applicata. Da questa prospettiva la materia perde certamente moltissimo fascino commerciale, ma risulta molto più trattabile per i profani. Per esempio risulta chiaro perché gli "algoritmi" abbiano bisogno di grandissime moli di dati per funzionare. Se iniziamo a sostituire mentalmente ogni riferimento alla "intelligenza artificiale" con "applicazione statistica", molte problematiche diventano molto più semplici da trattare. Un esempio concreto: se un computer, sulla base di una statistica, suggerisce di pagare meno una lavoratrice rispetto ad un lavoratore, non si tratta di un oscuro "bias" in un insondabile cervello elettronico. Semplicemente, nella base dati fornita alla applicazione statistica le lavoratrici guadagnano meno. Una base di dati diversa fornirebbe ovviamente un risultato diverso. La responsabilità del "bias" non è della macchina, ma di chi ha creato il programma (scegliendo di utilizzare determinate tecniche statistiche rispetto ad altre), di chi ha fornito i dati e di chi, ultimamente, ha deciso di dargli ascolto. La qualità dei dati non deve diventare uno specchietto per le allodole: le aziende che operano in questo settore pongono grandissima attenzione alla veridicità dei dati, per massimizzare le proprie capacità predittive e dunque i propri profitti. Garbage in, garbage out. Vale per qualsiasi software (e per qualsiasi modello matematico, in effetti). Per contro, proprio "sporcare i dati" può essere un modo per tutelare la propria privacy e per sfuggire un pochino alla statistica, mantenendo autonomia decisionale. Con questo non intendo minimizzare il valore tecnico di alcune innovazioni nel campo, che sono estremamente affascinanti. Ma per quanto i comportamenti di un software possano essere difficili da spiegare (attività che noi programmatori quotidianamente chiamiamo debugging), sono sempre deterministici. Solo i processori quantistici (per il momento costosa fantascienza) potrebbero falsificare questa affermazione. E' importante che la tecnologia non diventi fumo negli occhi. Non è la macchina che discrimina, che manipola o che stabilisce un rapporto parassitico con l'essere umano. E' sempre un altro uomo (o un'organizzazione umana). Sempre. Senza eccezioni. Quindi c'è sempre un responsabile a cui chiedere conto. Questo è un aspetto fondamentale, che deve essere ben chiaro ai legislatori. Su questa linea una nota relativa al principio di lealtà (che effettivamente ricorda incredibilmente la legge 0 della robotica che guida R.Daneel Olivaw nell'universo di Asimov :-D): ha una importante implicazione sulla raccolta dei dati,
each algorithm should be loyal towards its users, not only as consumers but also as citizens, or even as collectives, communities who can also be significantly impacted by these technologies.
La raccolta di dati personali tutelati dalla privacy è sempre meno necessaria per prevedere i comportamenti di un individuo. La semplice presenza, anonima, di un individuo in una certa zona fisica (calcolabile anche senza GPS, banalmente triangolando la distanza dalle antenne del suo cellulare) rende statisticamente prevedibile parte del suo comportamento. Se il movimento del cellulare avviene in sincrono con quello di altri cellulari, alla medesima velocità, possiamo dedurne che i proprietari stanno camminando o viaggiando insieme. Costituiscono una flotta. Dalla loro numerosità possiamo determinare se si tratti di turisti o di una famiglia. In determinati luoghi (pensate alle nostre bellissime città storiche) possiamo prevederne il tragitto. Potenzialmente possiamo provare a dirigerne l'attenzione attraverso cartelli pubblicitari e osservarne le reazioni, raffinando le nostre previsioni successive. Tutto questo senza violare in alcun modo la loro privacy. Poco importa se il 20% della popolazione sfugge alla griglia di comportamenti che riusciamo a dirigere, il restante 80% sarà sufficientemente redditizio. Deve essere chiaro che per quanto utile, sarà sempre meno necessario conoscere dati personali identificabili, per effettuare previsioni accurate e manipolazioni statisticamente efficaci. Se vogliamo tutelare le comunità, dobbiamo ampliare l'attenzione oltre la protezione dei dati personali individuali. Dobbiamo iniziare a tutelare le informazioni anonime collettive. Detto questo, scusate il pippotto... :-D A presto! Giacomo
Ottimo intervento; aggiungo ai punti indicati, che condivido in pieno, un altro aspetto, magari ancora non implementato pienamente, discriminante fra IA e normale programmazione, per quanto evoluta, ovvero la capacità di auto-apprendere (sempre su basi statistiche, d'accordo) e quindi, a partire da due calcolatori con uguale programma di partenza, arrivare a due sistemi con due "esperienze" diverse, che pertanto, in una stessa situazione, scelgono due strade diverse, danno due risposte diverse. Se, ad esempio, vogliamo insegnare ad un calcolatore a distinguere un tramonto da un altro panorama, potremo far passare 1000 o più immagini, col tag "tramonto sì" "tramonto no"; a quel punto il sistema dovrebbe poter confrontare una nuova immagine col bagaglio acquisito e decidere da solo se si tratta di un tramonto oppure no. Due calcolatori a cui siano stati sottoposti due diversi set di immagini d'apprendimento potrebbero valutare in modo diverso una foto scattata quando inizia l'imbrunire. Oppure confondere un teatro con una striscia rossa disegnata sulle pareti con un tramonto. Quando ho fotografato il coniglio mezzo nascosto dietro un mobile per tentare di sfuggire alla vaccinazione (dimenticando il posteriore in bella vista) Facebook mi ha scritto "l'immagine potrebbe contenere: cane", perchè ha riconosciuto una massa di pelo, ma ovviamente non ha saputo identificare l'animale. Nè l'algoritmo, peraltro già notevole a riconoscere un animale nella foto, è stato abbastanza intelligente da confrontare la foto con altri post di amici pelosi da me postati precedentemente. Direi che la strada per la vera AI è ancora lunga, sempre che arrivi. D. ________________________________ From: nexa <nexa-bounces@server-nexa.polito.it> on behalf of Giacomo Tesio <giacomo@tesio.it> Sent: Wednesday, January 10, 2018 3:10 PM To: Nexa Subject: Re: [nexa] Come consentire all'uomo di mantenere la supremazia Il giorno 10 gennaio 2018 13:47, Diego Giorio <dgiorio@hotmail.com> ha scritto:
https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_m... DÉCEMBRE 2017 - cnil.fr<https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_m...> www.cnil.fr DÉCEMBRE 2017 COMMENT PERMETTRE À L’HOMME DE GARDER LA MAIN ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle SYNTHÈSE DU DÉBAT PUBLIC ...
2018-01-10 13:56 GMT+01:00 Francesca Mauro <Francesca.Mauro@twobirds.com>:
Per chi non conosce il francese, un articolo in italiano del Prof. Pizzetti sul rapporto della CNIL che ne riassume il contenuto: https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-qual...
[https://dm2ue6l6q7ly2.cloudfront.net/wp-content/uploads/sites/3/2017/05/15165621/privacy_573665698.jpg]<https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-quali-sfide-per-i-garanti-privacy/> Intelligenza artificiale, quali sfide per i Garanti Privacy<https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-qual...> www.agendadigitale.eu Arrivano studi internazionali che illuminano la sfida della regole privacy nell'era degli algoritmi. Offrendo raccomandazioni ai regolatori. Ecco che c'è da sapere Salve, mi chiamo Giacomo Tesio, e il collega Antonio Vetro' mi ha recentemente suggerito questa mailing list a valle di una bella chiacchierata su temi analoghi. Vi propongo alcune considerazioni sui testi inglese e italiano, da un punto di vista tecnico (sono un programmatore). La prima, ovvia per chi conosce la materia, è che l'intelligenza artificiale è (per la stragrande maggioranza) statistica applicata. Da questa prospettiva la materia perde certamente moltissimo fascino commerciale, ma risulta molto più trattabile per i profani. Per esempio risulta chiaro perché gli "algoritmi" abbiano bisogno di grandissime moli di dati per funzionare. Se iniziamo a sostituire mentalmente ogni riferimento alla "intelligenza artificiale" con "applicazione statistica", molte problematiche diventano molto più semplici da trattare. Un esempio concreto: se un computer, sulla base di una statistica, suggerisce di pagare meno una lavoratrice rispetto ad un lavoratore, non si tratta di un oscuro "bias" in un insondabile cervello elettronico. Semplicemente, nella base dati fornita alla applicazione statistica le lavoratrici guadagnano meno. Una base di dati diversa fornirebbe ovviamente un risultato diverso. La responsabilità del "bias" non è della macchina, ma di chi ha creato il programma (scegliendo di utilizzare determinate tecniche statistiche rispetto ad altre), di chi ha fornito i dati e di chi, ultimamente, ha deciso di dargli ascolto. La qualità dei dati non deve diventare uno specchietto per le allodole: le aziende che operano in questo settore pongono grandissima attenzione alla veridicità dei dati, per massimizzare le proprie capacità predittive e dunque i propri profitti. Garbage in, garbage out. Vale per qualsiasi software (e per qualsiasi modello matematico, in effetti). Per contro, proprio "sporcare i dati" può essere un modo per tutelare la propria privacy e per sfuggire un pochino alla statistica, mantenendo autonomia decisionale. Con questo non intendo minimizzare il valore tecnico di alcune innovazioni nel campo, che sono estremamente affascinanti. Ma per quanto i comportamenti di un software possano essere difficili da spiegare (attività che noi programmatori quotidianamente chiamiamo debugging), sono sempre deterministici. Solo i processori quantistici (per il momento costosa fantascienza) potrebbero falsificare questa affermazione. E' importante che la tecnologia non diventi fumo negli occhi. Non è la macchina che discrimina, che manipola o che stabilisce un rapporto parassitico con l'essere umano. E' sempre un altro uomo (o un'organizzazione umana). Sempre. Senza eccezioni. Quindi c'è sempre un responsabile a cui chiedere conto. Questo è un aspetto fondamentale, che deve essere ben chiaro ai legislatori. Su questa linea una nota relativa al principio di lealtà (che effettivamente ricorda incredibilmente la legge 0 della robotica che guida R.Daneel Olivaw nell'universo di Asimov :-D): ha una importante implicazione sulla raccolta dei dati,
each algorithm should be loyal towards its users, not only as consumers but also as citizens, or even as collectives, communities who can also be significantly impacted by these technologies.
La raccolta di dati personali tutelati dalla privacy è sempre meno necessaria per prevedere i comportamenti di un individuo. La semplice presenza, anonima, di un individuo in una certa zona fisica (calcolabile anche senza GPS, banalmente triangolando la distanza dalle antenne del suo cellulare) rende statisticamente prevedibile parte del suo comportamento. Se il movimento del cellulare avviene in sincrono con quello di altri cellulari, alla medesima velocità, possiamo dedurne che i proprietari stanno camminando o viaggiando insieme. Costituiscono una flotta. Dalla loro numerosità possiamo determinare se si tratti di turisti o di una famiglia. In determinati luoghi (pensate alle nostre bellissime città storiche) possiamo prevederne il tragitto. Potenzialmente possiamo provare a dirigerne l'attenzione attraverso cartelli pubblicitari e osservarne le reazioni, raffinando le nostre previsioni successive. Tutto questo senza violare in alcun modo la loro privacy. Poco importa se il 20% della popolazione sfugge alla griglia di comportamenti che riusciamo a dirigere, il restante 80% sarà sufficientemente redditizio. Deve essere chiaro che per quanto utile, sarà sempre meno necessario conoscere dati personali identificabili, per effettuare previsioni accurate e manipolazioni statisticamente efficaci. Se vogliamo tutelare le comunità, dobbiamo ampliare l'attenzione oltre la protezione dei dati personali individuali. Dobbiamo iniziare a tutelare le informazioni anonime collettive. Detto questo, scusate il pippotto... :-D A presto! Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa nexa -- Public list for news and information ... - polito.it<https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa> server-nexa.polito.it nexa -- Public list for news and information sharing of the NEXA Center for Internet & Society (Politecnico di Torino) About nexa
Il giorno 10 gennaio 2018 13:45, Diego Giorio <dgiorio@hotmail.com> ha scritto:
Non mi sembra sia ancora passato in lista, nel caso mi scuso per la duplicazione: per chi legge il francese, un interessante rapporto della Commissione Informatica e Libertà sull'intelligenza artificiale ed etica degli algoritmi
Ciao, riprendo il discorso solo per segnalare che ho elaborato ulteriormente alcune delle considerazioni fatte in questo thread su Medium: https://medium.com/@giacomo_59737/the-delusions-of-neural-networks-f7085d47e... Spero possa essere una lettura interessante. :-) A presto! Giacomo
Il 19/01/2018 00:44, Giacomo Tesio ha scritto:
Ciao, riprendo il discorso solo per segnalare che ho elaborato ulteriormente alcune delle considerazioni fatte in questo thread su Medium:
https://medium.com/@giacomo_59737/the-delusions-of-neural-networks-f7085d47e...
Spero possa essere una lettura interessante. :-)
Ben scritto, mi è piaciuto. In particolare il richiamo alla scelta delle parole da usare (p.es. calibrazione invece di addestramento) per depotenziare l'antropomorfizzazione di queste tecniche. Anche la riflessione sulla "responsabilità" dell'uso di queste tecniche quando le conseguenze ricadono sulle persone è assolutamente centrale. Ciao, Enrico -- EN ===================================================================== Prof. Enrico Nardelli Dipartimento di Matematica - Universita' di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it home page: http://www.mat.uniroma2.it/~nardelli blog: http://www.ilfattoquotidiano.it/blog/enardelli/ ===================================================================== --
participants (5)
-
avv. Monica A. Senor -
Diego Giorio -
Enrico Nardelli -
Francesca Mauro -
Giacomo Tesio