L’incertezza ci salverà Oggi le Ai sono sviluppate o in una modalità *market-driven* o *state-driven*. Dobbiamo pensare altre modalità. Per esempio sviluppando algoritmi di verifica indipendenti che sappiano certificare queste quattro capacità delle macchine. Oppure è possibile ipotizzare enti terzi indipendenti, che attraverso la scrittura di algoritmi dedicati siano in grado di valutare l’idoneità delle Ai alla convivenza con l’uomo. Solo rispettando queste indicazioni l’innovazione potrà essere guidata verso un autentico sviluppo umano. Il resto dell'articolo seguendo il link http://www.osservatoreromano.va/it/news/lincertezza-ci-salvera?fbclid=IwAR1u... Buona lettura dl _________________________ www.universitari.to.it via XX settembre 83, Torino tel. 011 5156239
Don Luca- grazie della condivisione. L'articolo è molto interessante e se anche alcune premesse di carattere darwiniano e sociologico potrebbero essere discusse mi è piaciuta molto l'esplicitazione delle quattro regole dell'algor-etica. Sono dovuto arrivare alla fine del lungo articolo per leggere che era di padre Benanti. Molto bravo, noi lo abbiamo portato diverse volte in televisione a Raiuno. L'ultima nel nostro programma Codice, la vita è digitale, e Barbara Carfagna l'ha intervistato. https://www.raiplay.it/video/2017/09/Intervista-a-Padre-Paolo-Benanti-le-ric... https://www.raiplay.it/video/2017/09/Transumanesimo-laposumanit224-raggiunge... Il giorno mer 20 feb 2019 alle ore 20:23 don Luca Peyron < dluca.universitari@gmail.com> ha scritto:
L’incertezza ci salverà Oggi le Ai sono sviluppate o in una modalità *market-driven* o *state-driven*. Dobbiamo pensare altre modalità. Per esempio sviluppando algoritmi di verifica indipendenti che sappiano certificare queste quattro capacità delle macchine. Oppure è possibile ipotizzare enti terzi indipendenti, che attraverso la scrittura di algoritmi dedicati siano in grado di valutare l’idoneità delle Ai alla convivenza con l’uomo. Solo rispettando queste indicazioni l’innovazione potrà essere guidata verso un autentico sviluppo umano.
Il resto dell'articolo seguendo il link
http://www.osservatoreromano.va/it/news/lincertezza-ci-salvera?fbclid=IwAR1u...
Buona lettura
dl _________________________ www.universitari.to.it via XX settembre 83, Torino tel. 011 5156239 _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- Arturo Di Corinto www.dicorinto.it ---------------------------------> AVVERTENZE AI SENSI DEL D.Lgs. 196/2003 Le informazioni contenute in questo messaggio di posta elettronica e/o nel/i file/s allegato/i sono da considerarsi strettamente riservate. Il loro utilizzo è consentito esclusivamente al destinatario del messaggio, per le finalità indicate nel messaggio stesso. Qualora riceviate questo messaggio senza esserne il destinatario, Vi preghiamo cortesemente di darcene notizia via e-mail e di procedere alla distruzione del messaggio stesso, cancellandolo dal Vostro sistema. Conservare il messaggio stesso, divulgarlo anche in parte, distribuirlo ad altri soggetti, copiarlo, od utilizzarlo per finalità diverse, costituisce comportamento contrario ai principi dettati dal D.Lgs. 196/2003
Con tutto il rispetto per l'autore (delle cui buone intenzioni non dubito affatto), a me il testo sembra un susseguirsi di "non sequitur" costruiti su una premessa semplicemente sbagliata:
[Le AI] non sono software programmati ma sistemi addestrati. Si supera il modello classico if this then that in cui un ingegnere del software prevedeva prima tutte le possibili occorrenze. Le Ai rispondono in maniera autonoma a un problema che gli viene posto. Questi artefatti sono una nuova specie nelle macchine. Delle machine sapiens.
Questa premessa mostra un profondissimo fraintendimento di cosa sia e come funzioni il machine learning. Coerente con la narrazione da Twitter dell'intelligenza artificiale, utile alle aziende (alcune citate nell'articolo stesso) che puntano ad una irresponsabile deresponsabilizzazione dell'industria. NON esistono macchine sapiens. I profani della materia vedono nelle AI quello che vogliono vedere, indipendentemente da quello che c'è. Qualcuno scientemente, nella speranza che accettare questa allucinazione condivisa possa farli apparire come esperti della materia.
Siccome le intelligenze artificiali fondano loro decisioni sui dati e poiché questi non sono una copia perfetta della realtà non è pensabile a priori che la macchina dotata di intelligenza artificiale possa fare una scelta priva di errori. La macchina sapiens sarà sempre e costitutivamente fallibile. Le Ai hanno costitutivamente bisogno di un’etica.
Non sequitur: perché? Non abbiamo piuttosto bisogno di normative che stabiliscano responsabilità civili e penali chiare per chi realizza e diffonde queste macchine? Il software (e le AI sono software come gli altri) è sempre stato fallibile, perché l'uomo che lo crea è fallibile. Non è il software che ha bisogno di un etica per rispondere dei propri bug, ma l'uomo che deve risponderne.
Poiché le intelligenze artificiali possono sbagliare bisogna capire come gestire allora questo sbaglio. La questione etica è fondamentale, importantissima e urgente. Bisogna trovare un sistema etico condiviso perché l’utilizzo di questi sistemi non produca ingiustizie, non danneggi le persone e non crei dei forti disequilibri globali.
Di nuovo non sequitur. Ma la frase più preoccupante (in particolare perché espressa da un religioso) è "Bisogna trovare un sistema etico condiviso". No. Dobbiamo avere leggi scritte da persone competenti in materia che non si facciano abbagliare o corrompere. Niente di più, niente di meno.
Il mondo nell’epoca del Digital Age è regolato degli algoritmi. Più di qualcuno parla di una algo-crazia. Per evitare che ci sia questo dominio dell’algoritmo anche grazie alle AI dobbiamo iniziare a sviluppare questo linguaggio comune dell’algor-etica.
Di nuovo, non sequitur. Ma qui viene espressa un'altra frottola MOLTO comoda assunta come rischio. Che un algoritmo regoli qualcosa. Un software (parlare di algoritmi è, di nuovo, grossolanamente sbagliato) calcola. CHI regola, è chi realizza il software. Chi stabilisce COME debba / possa essere usato. Che si tratti di una scrittura TRASPARENTE del codice da parte di un programmatore o della OPACA selezione pseudo casuale di una delle infinite funzioni che minimizzano l'errore quadratico medio dai punti noti entro un certo valore, sempre c'è un processo di produzione del software con ampli margini di arbitrarietà (aka potere) da parte di essere umani.
L’etica invece parla di valore morale. Dobbiamo stabilire un linguaggio che sappia tradurre il valore morale in un qualcosa di computabile per la macchina. [...] Dobbiamo mettere in grado la macchina di avere un certo senso di incertezza. [...] Tentativi di questo tipo sono portati avanti da Google e Uber con delle librerie statistiche speciali. Se la macchina ogni volta che si trova in una condizione di incertezza chiede all’uomo allora quello che stiamo realizzando è una intelligenza artificiale che pone l’umano al centro.
Ah...beh... se Uber e Google stanno realizzando "librerie statistiche speciali"... siamo a posto! Mica hanno già lanciato prototipi di 5 tonnellate ai 70 km/h su strada uccidendo persone... Mica detengono un potere di manipolazione enorme... Se accreditate con un qualche valore tecnico / legale, queste "librerie statistiche speciali" non salveranno l'uomo, non lo porranno al centro. Semplicemente, solleveranno LE AZIENDE dalla responsabilità degli errori. O meglio.. solleveranno dalle responsabilità civili e penali i CdA, i CEO, gli azionisti etc... persone che traggono il maggior vantaggio dall'ignoranza diffusa in materia e che dovrebbero invece risponderne civilmente e penalmente dei danni e delle esternalità causate dai loro prodotti. Giacomo
Condivido totalmente una per una, le parole di Giacomo Trsio.In particolare quelle sull'Etica.Parlare di Etoca di I é un modo per ABBASSARE non per ASSICURARE CORRETTA TUTELA DEI DIRITTI in questo campo.Occorrono norme giuridiche, Autorità competenti, un dialogo costante tra giuristi e tecnologi e molta molta serietà.Etica abbassa, non eleva la tutela perché sostitusce a norrme giuridiche e Linee guida principi etici variabili, a loro volta interpretabili da ogni operatatore e ogni cultura in mofo variabile (e normalmente di comodo)Inviato da smartphone Samsung Galaxy. -------- Messaggio originale --------Da: Giacomo Tesio <giacomo@tesio.it> Data: 21/02/19 12:21 (GMT+01:00) A: Arturo Di Corinto <arturo.dicorinto@uniroma1.it> Cc: Nexa <nexa@server-nexa.polito.it> Oggetto: Re: [nexa] Cronache romane Con tutto il rispetto per l'autore (delle cui buone intenzioni nondubito affatto), a me il testo sembra un susseguirsi di "non sequitur"costruiti su una premessa semplicemente sbagliata:> [Le AI] non sono software programmati ma sistemi addestrati.> Si supera il modello classico if this then that in cui un ingegnere> del software prevedeva prima tutte le possibili occorrenze.> Le Ai rispondono in maniera autonoma a un problema che> gli viene posto. Questi artefatti sono una nuova specie nelle> macchine. Delle machine sapiens.Questa premessa mostra un profondissimo fraintendimento di cosa sia ecome funzioni il machine learning.Coerente con la narrazione da Twitter dell'intelligenza artificiale,utile alle aziende (alcune citate nell'articolo stesso) che puntano aduna irresponsabile deresponsabilizzazione dell'industria.NON esistono macchine sapiens.I profani della materia vedono nelle AI quello che vogliono vedere,indipendentemente da quello che c'è.Qualcuno scientemente, nella speranza che accettare questaallucinazione condivisa possa farli apparire come esperti dellamateria.> Siccome le intelligenze artificiali fondano loro decisioni sui dati> e poiché questi non sono una copia perfetta della realtà non è> pensabile a priori che la macchina dotata di intelligenza artificiale> possa fare una scelta priva di errori.> La macchina sapiens sarà sempre e costitutivamente fallibile.> Le Ai hanno costitutivamente bisogno di un’etica.Non sequitur: perché?Non abbiamo piuttosto bisogno di normative che stabiliscanoresponsabilità civili e penali chiare per chi realizza e diffondequeste macchine?Il software (e le AI sono software come gli altri) è sempre statofallibile, perché l'uomo che lo crea è fallibile.Non è il software che ha bisogno di un etica per rispondere dei propribug, ma l'uomo che deve risponderne.> Poiché le intelligenze artificiali possono sbagliare bisogna> capire come gestire allora questo sbaglio. La questione etica> è fondamentale, importantissima e urgente.> Bisogna trovare un sistema etico condiviso perché l’utilizzo> di questi sistemi non produca ingiustizie, non danneggi le> persone e non crei dei forti disequilibri globali.Di nuovo non sequitur.Ma la frase più preoccupante (in particolare perché espressa da unreligioso) è "Bisogna trovare un sistema etico condiviso".No.Dobbiamo avere leggi scritte da persone competenti in materia che nonsi facciano abbagliare o corrompere.Niente di più, niente di meno.> Il mondo nell’epoca del Digital Age è regolato degli algoritmi.> Più di qualcuno parla di una algo-crazia. Per evitare che ci sia> questo dominio dell’algoritmo anche grazie alle AI dobbiamo iniziare> a sviluppare questo linguaggio comune dell’algor-etica.Di nuovo, non sequitur.Ma qui viene espressa un'altra frottola MOLTO comoda assunta come rischio.Che un algoritmo regoli qualcosa.Un software (parlare di algoritmi è, di nuovo, grossolanamentesbagliato) calcola.CHI regola, è chi realizza il software.Chi stabilisce COME debba / possa essere usato.Che si tratti di una scrittura TRASPARENTE del codice da parte di unprogrammatore o della OPACA selezione pseudo casuale di una delleinfinite funzioni che minimizzano l'errore quadratico medio dai puntinoti entro un certo valore, sempre c'è un processo di produzione delsoftware con ampli margini di arbitrarietà (aka potere) da parte diessere umani.> L’etica invece parla di valore morale. Dobbiamo stabilire un linguaggio> che sappia tradurre il valore morale in un qualcosa di computabile> per la macchina. [...] Dobbiamo mettere in grado la macchina di> avere un certo senso di incertezza. [...] Tentativi di questo tipo sono> portati avanti da Google e Uber con delle librerie statistiche speciali.> Se la macchina ogni volta che si trova in una condizione di incertezza> chiede all’uomo allora quello che stiamo realizzando è una intelligenza> artificiale che pone l’umano al centro.Ah...beh... se Uber e Google stanno realizzando "librerie statistichespeciali"... siamo a posto!Mica hanno già lanciato prototipi di 5 tonnellate ai 70 km/h su stradauccidendo persone...Mica detengono un potere di manipolazione enorme...Se accreditate con un qualche valore tecnico / legale, queste"librerie statistiche speciali" non salveranno l'uomo, non lo porrannoal centro.Semplicemente, solleveranno LE AZIENDE dalla responsabilità degli errori.O meglio.. solleveranno dalle responsabilità civili e penali i CdA, iCEO, gli azionisti etc... persone che traggono il maggior vantaggiodall'ignoranza diffusa in materia e che dovrebbero invece rispondernecivilmente e penalmente dei danni e delle esternalità causate dai loroprodotti.Giacomo_______________________________________________nexa mailing listnexa@server-nexa.polito.ithttps://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
participants (4)
-
Arturo Di Corinto -
don Luca Peyron -
f.pizzetti -
Giacomo Tesio