Bella sintesi. Non sapevo della discussione in corso a New York e quello che e' successo a Eric Loomis e' aberrante. Probabilmente l'algoritmo proprietario e' stato utilizzato per selezionare il risultato con il maggiore ritorno di immagine per l'azienda software. E in assenza di regolamentazione non lo sapremo mai. Nonostante Vacca sia un dirigente pubblico di alto livello da anni, spiega,
non è stato capace di trovare una risposta a domande molto banali: quali sono i criteri dell’efficienza? Come viene presa la decisione? C’è una formula – è l’unica spiegazione che gli viene data – senza spiegazione in merito alle variabili considerate, e senza che i cittadini ne possano sapere niente. Stessa cosa, racconta, succede quando un adolescente cerca di entrare alle scuole superiori che preferisce e viene assegnato alle sua sesta o settima scelta. Legittimamente, si chiede: «Perché non è possibile capire – e quindi contestare –questa decisione?».
Il valore fondante della cultura hacker (che citi propriamente nell'articolo), e' la ricerca della conoscenza tecnico-scientifica. Forse persino una sorta di anelito alla verità. Persino la condivisione della conoscenza e' strumentale alla ricerca stessa. Nulla e' apprezzato di più da un hacker di una buona domanda, a cui non sa rispondere o che lo fa riflettere. Per contro, nulla viene deriso di più di una risposta vaga che vuole sembrare profonda attraverso paroloni tecnici. E' semplice. Se una cosa la capisci, la sai spiegare. Per questo parlo di "calibrazione" delle reti neurali invece che di "training": stiamo stabilendo dei "pesi" in modo da approssimare una funzione, non stiamo insegnando niente a nessuno. Per questo parlo di "applicazione statistica" invece di "intelligenza artificiale": siamo noi a scambiare il programma con una intelligenza semplicemente perché esegue una attività che classifichiamo solitamente come intelligente. Riconosciamo erroneamente un pattern, come quando guardiamo la foto di un gatto: vediamo il gatto, ma il gatto non c'è. C'è solo la carta. Se parliamo di applicazione statistica, risulta subito chiaro chi sono i responsabili umani di ogni decisione. Parlare di "intelligenza artificiale" genera solo una pericolosa confusione. Ma e' la confusione ad essere pericolosa, non l'applicazione statistica. La trasparenza di cui parli e' possibile. Non stiamo parlando di sistemi caotici. Stiamo parlando di macchine deterministiche. E' sempre possibile spiegare come funzionano, e' solo costoso. Tanto più costoso quanto più sono complesse. Ma parliamo di costi. Costi di impresa. Come altri. Come i sistemi di sicurezza alla ThyssenKrupp. O come la gestione dei rifiuti dell'Ilva. Non mi aspetto che un imprenditore li paghi volentieri, e anzi farà tutto il possibile per dire che non sono sostenibili. O addirittura che sia "tecnicamente impossibile" farlo. Sciocchezze. Se non puoi sostenere i costi della tua attività produttiva, cambi attività, non li scarichi sulla collettività. Applicare alle persone un processo decisionale ignoto (automatizzato o meno) vuol dire proprio questo. I computer sono macchine deterministiche. Complesse, ma non caotiche. Di conseguenza lo sono tutti i programmi. Il resto e' fumo negli occhi. Giacomo Il giorno 12 gennaio 2018 10:24, Enrico Bergamini < enricobergamini1995@gmail.com> ha scritto:
Buongiorno, Mi chiamo Enrico Bergamini, sono uno studente di Economia Politica all'Università di Utrecht, e mi occupo anche di data science e open data insieme ad OnData <https://twitter.com/ondatait>. Vi mando una riflessione su policymaking e trasparenza, che ho scritto su Valigia Blu, e che nasce da molti spunti che vengono da questa lista.
https://www.valigiablu.it/algoritmi-politica-trasparenza/
Fatemi sapere cosa ne pensate! Grazie e buona giornata, E
-- Enrico Bergamini
http://enricobergamini.it "All that we are is the result of what we have thought"
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa