Condivido totalmente una per una, le parole di Giacomo Trsio.In particolare quelle sull'Etica.Parlare di Etoca di I é un modo per ABBASSARE non per ASSICURARE CORRETTA TUTELA DEI DIRITTI in questo campo.Occorrono norme giuridiche, Autorità competenti, un dialogo costante tra giuristi e tecnologi e molta molta serietà.Etica abbassa, non eleva la tutela perché sostitusce a norrme giuridiche e Linee guida principi etici variabili, a loro volta interpretabili da ogni operatatore e ogni cultura in mofo variabile (e normalmente di comodo)Inviato da smartphone Samsung Galaxy.Con tutto il rispetto per l'autore (delle cui buone intenzioni non-------- Messaggio originale --------Da: Giacomo Tesio <giacomo@tesio.it>Data: 21/02/19 12:21 (GMT+01:00)A: Arturo Di Corinto <arturo.dicorinto@uniroma1.it>Cc: Nexa <nexa@server-nexa.polito.it>Oggetto: Re: [nexa] Cronache romane
dubito affatto), a me il testo sembra un susseguirsi di "non sequitur"
costruiti su una premessa semplicemente sbagliata:
> [Le AI] non sono software programmati ma sistemi addestrati.
> Si supera il modello classico if this then that in cui un ingegnere
> del software prevedeva prima tutte le possibili occorrenze.
> Le Ai rispondono in maniera autonoma a un problema che
> gli viene posto. Questi artefatti sono una nuova specie nelle
> macchine. Delle machine sapiens.
Questa premessa mostra un profondissimo fraintendimento di cosa sia e
come funzioni il machine learning.
Coerente con la narrazione da Twitter dell'intelligenza artificiale,
utile alle aziende (alcune citate nell'articolo stesso) che puntano ad
una irresponsabile deresponsabilizzazione dell'industria.
NON esistono macchine sapiens.
I profani della materia vedono nelle AI quello che vogliono vedere,
indipendentemente da quello che c'è.
Qualcuno scientemente, nella speranza che accettare questa
allucinazione condivisa possa farli apparire come esperti della
materia.
> Siccome le intelligenze artificiali fondano loro decisioni sui dati
> e poiché questi non sono una copia perfetta della realtà non è
> pensabile a priori che la macchina dotata di intelligenza artificiale
> possa fare una scelta priva di errori.
> La macchina sapiens sarà sempre e costitutivamente fallibile.
> Le Ai hanno costitutivamente bisogno di un’etica.
Non sequitur: perché?
Non abbiamo piuttosto bisogno di normative che stabiliscano
responsabilità civili e penali chiare per chi realizza e diffonde
queste macchine?
Il software (e le AI sono software come gli altri) è sempre stato
fallibile, perché l'uomo che lo crea è fallibile.
Non è il software che ha bisogno di un etica per rispondere dei propri
bug, ma l'uomo che deve risponderne.
> Poiché le intelligenze artificiali possono sbagliare bisogna
> capire come gestire allora questo sbaglio. La questione etica
> è fondamentale, importantissima e urgente.
> Bisogna trovare un sistema etico condiviso perché l’utilizzo
> di questi sistemi non produca ingiustizie, non danneggi le
> persone e non crei dei forti disequilibri globali.
Di nuovo non sequitur.
Ma la frase più preoccupante (in particolare perché espressa da un
religioso) è "Bisogna trovare un sistema etico condiviso".
No.
Dobbiamo avere leggi scritte da persone competenti in materia che non
si facciano abbagliare o corrompere.
Niente di più, niente di meno.
> Il mondo nell’epoca del Digital Age è regolato degli algoritmi.
> Più di qualcuno parla di una algo-crazia. Per evitare che ci sia
> questo dominio dell’algoritmo anche grazie alle AI dobbiamo iniziare
> a sviluppare questo linguaggio comune dell’algor-etica.
Di nuovo, non sequitur.
Ma qui viene espressa un'altra frottola MOLTO comoda assunta come rischio.
Che un algoritmo regoli qualcosa.
Un software (parlare di algoritmi è, di nuovo, grossolanamente
sbagliato) calcola.
CHI regola, è chi realizza il software.
Chi stabilisce COME debba / possa essere usato.
Che si tratti di una scrittura TRASPARENTE del codice da parte di un
programmatore o della OPACA selezione pseudo casuale di una delle
infinite funzioni che minimizzano l'errore quadratico medio dai punti
noti entro un certo valore, sempre c'è un processo di produzione del
software con ampli margini di arbitrarietà (aka potere) da parte di
essere umani.
> L’etica invece parla di valore morale. Dobbiamo stabilire un linguaggio
> che sappia tradurre il valore morale in un qualcosa di computabile
> per la macchina. [...] Dobbiamo mettere in grado la macchina di
> avere un certo senso di incertezza. [...] Tentativi di questo tipo sono
> portati avanti da Google e Uber con delle librerie statistiche speciali.
> Se la macchina ogni volta che si trova in una condizione di incertezza
> chiede all’uomo allora quello che stiamo realizzando è una intelligenza
> artificiale che pone l’umano al centro.
Ah...beh... se Uber e Google stanno realizzando "librerie statistiche
speciali"... siamo a posto!
Mica hanno già lanciato prototipi di 5 tonnellate ai 70 km/h su strada
uccidendo persone...
Mica detengono un potere di manipolazione enorme...
Se accreditate con un qualche valore tecnico / legale, queste
"librerie statistiche speciali" non salveranno l'uomo, non lo porranno
al centro.
Semplicemente, solleveranno LE AZIENDE dalla responsabilità degli errori.
O meglio.. solleveranno dalle responsabilità civili e penali i CdA, i
CEO, gli azionisti etc... persone che traggono il maggior vantaggio
dall'ignoranza diffusa in materia e che dovrebbero invece risponderne
civilmente e penalmente dei danni e delle esternalità causate dai loro
prodotti.
Giacomo
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
AVVERTENZE AI SENSI DEL D.Lgs. 196/2003
Le informazioni contenute in questo messaggio di posta elettronica
e/o nel/i file/s allegato/i sono da considerarsi strettamente
riservate. Il loro utilizzo è consentito esclusivamente al
destinatario del messaggio, per le finalità indicate nel messaggio
stesso. Qualora riceviate questo messaggio senza esserne il destinatario, Vi preghiamo cortesemente
di darcene notizia via e-mail e di procedere alla distruzione del
messaggio stesso, cancellandolo dal Vostro sistema. Conservare il
messaggio stesso, divulgarlo anche in parte, distribuirlo ad altri
soggetti, copiarlo, od utilizzarlo per finalità diverse, costituisce comportamento
contrario ai principi dettati dal D.Lgs. 196/2003