Per questo parlo di "calibrazione" delle reti neurali invece che di "training": stiamo stabilendo dei "pesi" in modo da approssimare una funzione, non stiamo insegnando niente a nessuno.
Per questo parlo di "applicazione statistica" invece di "intelligenza artificiale": siamo noi a scambiare il programma con una intelligenza semplicemente perché esegue una attività che classifichiamo solitamente come intelligente.
Riconosciamo erroneamente un pattern, come quando guardiamo la foto di un gatto: vediamo il gatto, ma il gatto non c'è. C'è solo la carta.
Se parliamo di applicazione statistica, risulta subito chiaro chi sono i responsabili umani di ogni decisione.
Parlare di "intelligenza artificiale" genera solo una pericolosa confusione.
Ma e' la confusione ad essere pericolosa, non l'applicazione statistica.
La trasparenza di cui parli e' possibile.
Non stiamo parlando di sistemi caotici.
Stiamo parlando di macchine deterministiche.
E' sempre possibile spiegare come funzionano, e' solo costoso.
Tanto più costoso quanto più sono complesse.
Ma parliamo di costi. Costi di impresa. Come altri.
Come i sistemi di sicurezza alla ThyssenKrupp.
O come la gestione dei rifiuti dell'Ilva.
Non mi aspetto che un imprenditore li paghi volentieri, e anzi farà tutto il possibile per dire che non sono sostenibili. O addirittura che sia "tecnicamente impossibile" farlo.
Sciocchezze.
Se non puoi sostenere i costi della tua attività produttiva, cambi attività, non li scarichi sulla collettività.
Applicare alle persone un processo decisionale ignoto (automatizzato o meno) vuol dire proprio questo.
I computer sono macchine deterministiche.
Complesse, ma non caotiche.
Di conseguenza lo sono tutti i programmi.
Il resto e' fumo negli occhi.
Giacomo