On March 10, 2019 10:40:41 AM UTC, Arturo Di Corinto <arturo.dicorinto@uniroma1.it> wrote:
Caro Pizzetti- concordo sulla sua preoccupazione. Nondimeno, parlare di Etica del mondo artificiale è una sfida cui non possiamo derogare.
Il punto è che non è di "Etica del mondo artificiale" che dobbiamo discutere. Dobbiamo discutere di Etica aziendale o Etica politica senza ridere sotto i baffi.
L'Etica per quanto variabile, ha a che fare con i fini, e quindi con il comportamento umano. L'Etica, che è indubbiamente alla base del Diritto (i.e. non uccidere) può aiutarci a definire gli orizzonti necessari a stabilire delle regole di comportamento in futuro sempre più popolato da macchine.
"Non uccidere" non è una affermazione etica, ma una legge di diritto (divino) "La vita umana è lo scopo fondamentale della società" è un'affermazione etica. "La conoscenza è lo scopo fondamentale della esistenza cosciente" è un'affermazione etica. "Homo homini lupus" è un'affermazione etica. "Massimizzare l'utilità individuale è lo scopo di ogni attività umana" è un'affermazione etica. Non solo sono incompatibili, tutte presumono un essere umano ad affermarle sotto la propria responsabilità. Delegare l'etica alle cose ha due effetti socialmente inaccettabili: - deresponsabilizzazione degli umani (e dunque perdita di significato dell'etica stessa) - diffusione della specifica etica scelta, che come la storia insegna, può sembrare giusta e santa in un dato momento storico e disgustosa in un altro
Cone detto nella conferenza di Helsinki e riportato da Alessandro Mantelero: "Questa necessaria integrazione fra etica e diritto emerge sempre più in molti documenti adottati a livello europeo, da ultimo anche nelle menzionate conclusioni della conferenza di Helsinky ove si legge *“existing landmark international instruments, including the Universal Declaration of Human Rights and the European Convention for the Protection of Human Rights and Fundamental Freedoms, are applicable irrespective of contextual changes brought about by AI and must be complied with to ensure that technological progress occurs in line with the principles of human rights, democracy and the rule of law. Ethical guidelines and self-regulation constitute additional tools to promote these values”.*
Le self-regulation ci hanno donato Cambridge Analytica, solo per far un esempio. Non ci vuole un genio a vedere che chiedere ad un ente di autoregolarsi vuol semplicemente dire concedergli di NON regolarsi ed inventare scuse arzigogolate quando i problemi emergono. Non è un conflitto di interessi: è una barzelletta. La chiamata alla autoregolamentazione è un comodo gettare la spugna. Invece di studiare in profondità la materia prima di regolarla in modo cauto e stringente, si dice "fate un po' come credete, solo non causate scandali che possano essere ricondotti facilmente all'ignoranza e alla miopia della Politica." Giacomo