Caro Pizzetti-
concordo sulla sua preoccupazione. Nondimeno, parlare di Etica del mondo artificiale è una sfida cui non possiamo derogare.
L'Etica per quanto variabile, ha a che fare con i fini, e quindi con il comportamento umano. L'Etica, che è indubbiamente alla base del Diritto (i.e. non uccidere) può aiutarci a definire gli orizzonti necessari a stabilire delle regole di comportamento in futuro sempre più popolato da macchine.
Cone detto nella conferenza di Helsinki e riportato da Alessandro Mantelero:
"Questa necessaria integrazione fra etica e diritto emerge sempre più in molti documenti adottati a livello europeo, da ultimo anche nelle menzionate conclusioni della conferenza di Helsinky ove si legge “existing landmark international instruments, including the Universal Declaration of Human Rights and the European Convention for the Protection of Human Rights and Fundamental Freedoms, are applicable irrespective of contextual changes brought about by AI and must be complied with to ensure that technological progress occurs in line with the principles of human rights, democracy and the rule of law. Ethical guidelines and self-regulation constitute additional tools to promote these values”.




Il giorno gio 21 feb 2019 alle ore 12:50 f.pizzetti <f.pizzetti@tiscali.it> ha scritto:
Condivido totalmente  una per una, le parole di Giacomo Trsio.
In particolare quelle sull'Etica.
Parlare di Etoca di I é un modo per ABBASSARE non per ASSICURARE CORRETTA TUTELA DEI DIRITTI in questo campo.
Occorrono norme giuridiche, Autorità competenti, un dialogo costante tra giuristi e tecnologi e molta molta serietà.
Etica abbassa, non eleva la tutela perché sostitusce a norrme giuridiche e Linee guida principi etici variabili, a loro volta interpretabili da ogni operatatore e ogni cultura in mofo variabile (e normalmente di comodo)



Inviato da smartphone Samsung Galaxy.

-------- Messaggio originale --------
Da: Giacomo Tesio <giacomo@tesio.it>
Data: 21/02/19 12:21 (GMT+01:00)
A: Arturo Di Corinto <arturo.dicorinto@uniroma1.it>
Cc: Nexa <nexa@server-nexa.polito.it>
Oggetto: Re: [nexa] Cronache romane

Con tutto il rispetto per l'autore (delle cui buone intenzioni non
dubito affatto), a me il testo sembra un susseguirsi di "non sequitur"
costruiti su una premessa semplicemente sbagliata:

> [Le AI] non sono software programmati ma sistemi addestrati.
> Si supera il modello classico if this then that in cui un ingegnere
> del software prevedeva prima tutte le possibili occorrenze.
> Le Ai rispondono in maniera autonoma a un problema che
> gli viene posto. Questi artefatti sono una nuova specie nelle
> macchine. Delle machine sapiens.

Questa premessa mostra un profondissimo fraintendimento di cosa sia e
come funzioni il machine learning.
Coerente con la narrazione da Twitter dell'intelligenza artificiale,
utile alle aziende (alcune citate nell'articolo stesso) che puntano ad
una irresponsabile deresponsabilizzazione dell'industria.

NON esistono macchine sapiens.

I profani della materia vedono nelle AI quello che vogliono vedere,
indipendentemente da quello che c'è.
Qualcuno scientemente, nella speranza che accettare questa
allucinazione condivisa possa farli apparire come esperti della
materia.

> Siccome le intelligenze artificiali fondano loro decisioni sui dati
> e poiché questi non sono una copia perfetta della realtà non è
> pensabile a priori che la macchina dotata di intelligenza artificiale
> possa fare una scelta priva di errori.
> La macchina sapiens sarà sempre e costitutivamente fallibile.
> Le Ai hanno costitutivamente bisogno di un’etica.

Non sequitur: perché?

Non abbiamo piuttosto bisogno di normative che stabiliscano
responsabilità civili e penali chiare per chi realizza e diffonde
queste macchine?

Il software (e le AI sono software come gli altri) è sempre stato
fallibile, perché l'uomo che lo crea è fallibile.
Non è il software che ha bisogno di un etica per rispondere dei propri
bug, ma l'uomo che deve risponderne.

> Poiché le intelligenze artificiali possono sbagliare bisogna
> capire come gestire allora questo sbaglio. La questione etica
> è fondamentale, importantissima e urgente.
> Bisogna trovare un sistema etico condiviso perché l’utilizzo
> di questi sistemi non produca ingiustizie, non danneggi le
> persone e non crei dei forti disequilibri globali.

Di nuovo non sequitur.
Ma la frase più preoccupante (in particolare perché espressa da un
religioso) è "Bisogna trovare un sistema etico condiviso".
No.

Dobbiamo avere leggi scritte da persone competenti in materia che non
si facciano abbagliare o corrompere.
Niente di più, niente di meno.

> Il mondo nell’epoca del Digital Age è regolato degli algoritmi.
> Più di qualcuno parla di una algo-crazia. Per evitare che ci sia
> questo dominio dell’algoritmo anche grazie alle AI dobbiamo iniziare
> a sviluppare questo linguaggio comune dell’algor-etica.

Di nuovo, non sequitur.
Ma qui viene espressa un'altra frottola MOLTO comoda assunta come rischio.

Che un algoritmo regoli qualcosa.
Un software (parlare di algoritmi è, di nuovo, grossolanamente
sbagliato) calcola.

CHI regola, è chi realizza il software.
Chi stabilisce COME debba / possa essere usato.
Che si tratti di una scrittura TRASPARENTE del codice da parte di un
programmatore o della OPACA selezione pseudo casuale di una delle
infinite funzioni che minimizzano l'errore quadratico medio dai punti
noti entro un certo valore, sempre c'è un processo di produzione del
software con ampli margini di arbitrarietà (aka potere) da parte di
essere umani.

> L’etica invece parla di valore morale. Dobbiamo stabilire un linguaggio
> che sappia tradurre il valore morale in un qualcosa di computabile
> per la macchina. [...] Dobbiamo mettere in grado la macchina di
> avere un certo senso di incertezza. [...] Tentativi di questo tipo sono
> portati avanti da Google e Uber con delle librerie statistiche speciali.
> Se la macchina ogni volta che si trova in una condizione di incertezza
> chiede all’uomo allora quello che stiamo realizzando è una intelligenza
> artificiale che pone l’umano al centro.

Ah...beh... se Uber e Google stanno realizzando "librerie statistiche
speciali"... siamo a posto!

Mica hanno già lanciato prototipi di 5 tonnellate ai 70 km/h su strada
uccidendo persone...
Mica detengono un potere di manipolazione enorme...

Se accreditate con un qualche valore tecnico / legale, queste
"librerie statistiche speciali" non salveranno l'uomo, non lo porranno
al centro.

Semplicemente, solleveranno LE AZIENDE dalla responsabilità degli errori.
O meglio.. solleveranno dalle responsabilità civili e penali i CdA, i
CEO, gli azionisti etc... persone che traggono il maggior vantaggio
dall'ignoranza diffusa in materia e che dovrebbero invece risponderne
civilmente e penalmente dei danni e delle esternalità causate dai loro
prodotti.


Giacomo
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa


--

Arturo Di Corinto
www.dicorinto.it
--------------------------------->

AVVERTENZE AI SENSI DEL D.Lgs. 196/2003 Le informazioni contenute in questo messaggio di posta elettronica e/o nel/i file/s allegato/i sono da considerarsi strettamente riservate. Il loro utilizzo è consentito esclusivamente al destinatario del messaggio, per le finalità indicate nel messaggio stesso. Qualora riceviate questo messaggio senza esserne il destinatario, Vi preghiamo cortesemente di darcene notizia via e-mail e di procedere alla distruzione del messaggio stesso, cancellandolo dal Vostro sistema. Conservare il messaggio stesso, divulgarlo anche in parte, distribuirlo ad altri soggetti, copiarlo, od utilizzarlo per finalità diverse, costituisce comportamento contrario ai principi dettati dal D.Lgs. 196/2003