Condivido totalmente una per una, le parole di Giacomo Trsio.In particolare quelle sull'Etica.Parlare di Etoca di I é un modo per ABBASSARE non per ASSICURARE CORRETTA TUTELA DEI DIRITTI in questo campo.Occorrono norme giuridiche, Autorità competenti, un dialogo costante tra giuristi e tecnologi e molta molta serietà.Etica abbassa, non eleva la tutela perché sostitusce a norrme giuridiche e Linee guida principi etici variabili, a loro volta interpretabili da ogni operatatore e ogni cultura in mofo variabile (e normalmente di comodo)Inviato da smartphone Samsung Galaxy. -------- Messaggio originale --------Da: Giacomo Tesio <giacomo@tesio.it> Data: 21/02/19 12:21 (GMT+01:00) A: Arturo Di Corinto <arturo.dicorinto@uniroma1.it> Cc: Nexa <nexa@server-nexa.polito.it> Oggetto: Re: [nexa] Cronache romane Con tutto il rispetto per l'autore (delle cui buone intenzioni nondubito affatto), a me il testo sembra un susseguirsi di "non sequitur"costruiti su una premessa semplicemente sbagliata:> [Le AI] non sono software programmati ma sistemi addestrati.> Si supera il modello classico if this then that in cui un ingegnere> del software prevedeva prima tutte le possibili occorrenze.> Le Ai rispondono in maniera autonoma a un problema che> gli viene posto. Questi artefatti sono una nuova specie nelle> macchine. Delle machine sapiens.Questa premessa mostra un profondissimo fraintendimento di cosa sia ecome funzioni il machine learning.Coerente con la narrazione da Twitter dell'intelligenza artificiale,utile alle aziende (alcune citate nell'articolo stesso) che puntano aduna irresponsabile deresponsabilizzazione dell'industria.NON esistono macchine sapiens.I profani della materia vedono nelle AI quello che vogliono vedere,indipendentemente da quello che c'è.Qualcuno scientemente, nella speranza che accettare questaallucinazione condivisa possa farli apparire come esperti dellamateria.> Siccome le intelligenze artificiali fondano loro decisioni sui dati> e poiché questi non sono una copia perfetta della realtà non è> pensabile a priori che la macchina dotata di intelligenza artificiale> possa fare una scelta priva di errori.> La macchina sapiens sarà sempre e costitutivamente fallibile.> Le Ai hanno costitutivamente bisogno di un’etica.Non sequitur: perché?Non abbiamo piuttosto bisogno di normative che stabiliscanoresponsabilità civili e penali chiare per chi realizza e diffondequeste macchine?Il software (e le AI sono software come gli altri) è sempre statofallibile, perché l'uomo che lo crea è fallibile.Non è il software che ha bisogno di un etica per rispondere dei propribug, ma l'uomo che deve risponderne.> Poiché le intelligenze artificiali possono sbagliare bisogna> capire come gestire allora questo sbaglio. La questione etica> è fondamentale, importantissima e urgente.> Bisogna trovare un sistema etico condiviso perché l’utilizzo> di questi sistemi non produca ingiustizie, non danneggi le> persone e non crei dei forti disequilibri globali.Di nuovo non sequitur.Ma la frase più preoccupante (in particolare perché espressa da unreligioso) è "Bisogna trovare un sistema etico condiviso".No.Dobbiamo avere leggi scritte da persone competenti in materia che nonsi facciano abbagliare o corrompere.Niente di più, niente di meno.> Il mondo nell’epoca del Digital Age è regolato degli algoritmi.> Più di qualcuno parla di una algo-crazia. Per evitare che ci sia> questo dominio dell’algoritmo anche grazie alle AI dobbiamo iniziare> a sviluppare questo linguaggio comune dell’algor-etica.Di nuovo, non sequitur.Ma qui viene espressa un'altra frottola MOLTO comoda assunta come rischio.Che un algoritmo regoli qualcosa.Un software (parlare di algoritmi è, di nuovo, grossolanamentesbagliato) calcola.CHI regola, è chi realizza il software.Chi stabilisce COME debba / possa essere usato.Che si tratti di una scrittura TRASPARENTE del codice da parte di unprogrammatore o della OPACA selezione pseudo casuale di una delleinfinite funzioni che minimizzano l'errore quadratico medio dai puntinoti entro un certo valore, sempre c'è un processo di produzione delsoftware con ampli margini di arbitrarietà (aka potere) da parte diessere umani.> L’etica invece parla di valore morale. Dobbiamo stabilire un linguaggio> che sappia tradurre il valore morale in un qualcosa di computabile> per la macchina. [...] Dobbiamo mettere in grado la macchina di> avere un certo senso di incertezza. [...] Tentativi di questo tipo sono> portati avanti da Google e Uber con delle librerie statistiche speciali.> Se la macchina ogni volta che si trova in una condizione di incertezza> chiede all’uomo allora quello che stiamo realizzando è una intelligenza> artificiale che pone l’umano al centro.Ah...beh... se Uber e Google stanno realizzando "librerie statistichespeciali"... siamo a posto!Mica hanno già lanciato prototipi di 5 tonnellate ai 70 km/h su stradauccidendo persone...Mica detengono un potere di manipolazione enorme...Se accreditate con un qualche valore tecnico / legale, queste"librerie statistiche speciali" non salveranno l'uomo, non lo porrannoal centro.Semplicemente, solleveranno LE AZIENDE dalla responsabilità degli errori.O meglio.. solleveranno dalle responsabilità civili e penali i CdA, iCEO, gli azionisti etc... persone che traggono il maggior vantaggiodall'ignoranza diffusa in materia e che dovrebbero invece rispondernecivilmente e penalmente dei danni e delle esternalità causate dai loroprodotti.Giacomo_______________________________________________nexa mailing listnexa@server-nexa.polito.ithttps://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa