Ottimo intervento; aggiungo ai punti indicati, che condivido in pieno, un altro aspetto, magari ancora non implementato pienamente, discriminante fra IA e normale programmazione, per quanto evoluta, ovvero la capacità di auto-apprendere (sempre su basi statistiche, d'accordo) e quindi, a partire da due calcolatori con uguale programma di partenza, arrivare a due sistemi con due "esperienze" diverse, che pertanto, in una stessa situazione, scelgono due strade diverse, danno due risposte diverse. Se, ad esempio, vogliamo insegnare ad un calcolatore a distinguere un tramonto da un altro panorama, potremo far passare 1000 o più immagini, col tag "tramonto sì" "tramonto no"; a quel punto il sistema dovrebbe poter confrontare una nuova immagine col bagaglio acquisito e decidere da solo se si tratta di un tramonto oppure no. Due calcolatori a cui siano stati sottoposti due diversi set di immagini d'apprendimento potrebbero valutare in modo diverso una foto scattata quando inizia l'imbrunire. Oppure confondere un teatro con una striscia rossa disegnata sulle pareti con un tramonto.

Quando ho fotografato il coniglio mezzo nascosto dietro un mobile per tentare di sfuggire alla vaccinazione (dimenticando il posteriore in bella vista) Facebook mi ha scritto "l'immagine potrebbe contenere: cane", perchè ha riconosciuto una massa di pelo, ma ovviamente non ha saputo identificare l'animale. Nè l'algoritmo, peraltro già notevole a riconoscere un animale nella foto, è stato abbastanza intelligente da confrontare la foto con altri post di amici pelosi da me postati precedentemente. Direi che la strada per la vera AI è ancora lunga, sempre che arrivi.


D.

From: nexa <nexa-bounces@server-nexa.polito.it> on behalf of Giacomo Tesio <giacomo@tesio.it>
Sent: Wednesday, January 10, 2018 3:10 PM
To: Nexa
Subject: Re: [nexa] Come consentire all'uomo di mantenere la supremazia
 
Il giorno 10 gennaio 2018 13:47, Diego Giorio <dgiorio@hotmail.com> ha scritto:
> https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf


2018-01-10 13:56 GMT+01:00 Francesca Mauro <Francesca.Mauro@twobirds.com>:
>
> Per chi non conosce il francese, un articolo in italiano del Prof. Pizzetti sul rapporto della CNIL che ne riassume il contenuto:
> https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-quali-sfide-per-i-garanti-privacy/


Salve, mi chiamo Giacomo Tesio, e il collega Antonio Vetro' mi ha
recentemente suggerito questa mailing list a valle di una bella
chiacchierata su temi analoghi.

Vi propongo alcune considerazioni sui testi inglese e italiano, da un
punto di vista tecnico (sono un programmatore).


La prima, ovvia per chi conosce la materia, è che l'intelligenza
artificiale è (per la stragrande maggioranza) statistica applicata.
Da questa prospettiva la materia perde certamente moltissimo fascino
commerciale, ma risulta molto più trattabile per i profani.
Per esempio risulta chiaro perché gli "algoritmi" abbiano bisogno di
grandissime moli di dati per funzionare.

Se iniziamo a sostituire mentalmente ogni riferimento alla
"intelligenza artificiale" con "applicazione statistica", molte
problematiche diventano molto più semplici da trattare.
Un esempio concreto: se un computer, sulla base di una statistica,
suggerisce di pagare meno una lavoratrice rispetto ad un lavoratore,
non si tratta di un oscuro "bias" in un insondabile cervello
elettronico.
Semplicemente, nella base dati fornita alla applicazione statistica le
lavoratrici guadagnano meno. Una base di dati diversa fornirebbe
ovviamente un risultato diverso.

La responsabilità del "bias" non è della macchina, ma di chi ha creato
il programma (scegliendo di utilizzare determinate tecniche
statistiche rispetto ad altre), di chi ha fornito i dati e di chi,
ultimamente, ha deciso di dargli ascolto.
La qualità dei dati non deve diventare uno specchietto per le
allodole: le aziende che operano in questo settore pongono grandissima
attenzione alla veridicità dei dati, per massimizzare le proprie
capacità predittive e dunque i propri profitti.
Garbage in, garbage out. Vale per qualsiasi software (e per qualsiasi
modello matematico, in effetti).

Per contro, proprio "sporcare i dati" può essere un modo per tutelare
la propria privacy e per sfuggire un pochino alla statistica,
mantenendo autonomia decisionale.


Con questo non intendo minimizzare il valore tecnico di alcune
innovazioni nel campo, che sono estremamente affascinanti.
Ma per quanto i comportamenti di un software possano essere difficili
da spiegare (attività che noi programmatori quotidianamente chiamiamo
debugging), sono sempre deterministici.
Solo i processori quantistici (per il momento costosa fantascienza)
potrebbero falsificare questa affermazione.


E' importante che la tecnologia non diventi fumo negli occhi.
Non è la macchina che discrimina, che manipola o che stabilisce un
rapporto parassitico con l'essere umano.
E' sempre un altro uomo (o un'organizzazione umana). Sempre. Senza eccezioni.

Quindi c'è sempre un responsabile a cui chiedere conto. Questo è un
aspetto fondamentale, che deve essere ben chiaro ai legislatori.


Su questa linea una nota relativa al principio di lealtà (che
effettivamente ricorda incredibilmente la legge 0 della robotica che
guida R.Daneel Olivaw nell'universo di Asimov :-D): ha una importante
implicazione sulla raccolta dei dati,

> each algorithm should be loyal towards its users, not only as consumers but also as citizens, or even as collectives, communities who can also be significantly impacted by these technologies.

La raccolta di dati personali tutelati dalla privacy è sempre meno
necessaria per prevedere i comportamenti di un individuo.

La semplice presenza, anonima, di un individuo in una certa zona
fisica (calcolabile anche senza GPS, banalmente triangolando la
distanza dalle antenne del suo cellulare) rende statisticamente
prevedibile parte del suo comportamento.

Se il movimento del cellulare avviene in sincrono con quello di altri
cellulari, alla medesima velocità, possiamo dedurne che i proprietari
stanno camminando o viaggiando insieme.
Costituiscono una flotta. Dalla loro numerosità possiamo determinare
se si tratti di turisti o di una famiglia.
In determinati luoghi (pensate alle nostre bellissime città storiche)
possiamo prevederne il tragitto.
Potenzialmente possiamo provare a dirigerne l'attenzione attraverso
cartelli pubblicitari e osservarne le reazioni, raffinando le nostre
previsioni successive.

Tutto questo senza violare in alcun modo la loro privacy.

Poco importa se il 20% della popolazione sfugge alla griglia di
comportamenti che riusciamo a dirigere, il restante 80% sarà
sufficientemente redditizio.


Deve essere chiaro che per quanto utile, sarà sempre meno necessario
conoscere dati personali identificabili, per effettuare previsioni
accurate e manipolazioni statisticamente efficaci.


Se vogliamo tutelare le comunità, dobbiamo ampliare l'attenzione oltre
la protezione dei dati personali individuali. Dobbiamo iniziare a
tutelare le informazioni anonime collettive.



Detto questo, scusate il pippotto... :-D


A presto!


Giacomo
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa