Re: [nexa] Cronache romane
Caro Pizzetti- concordo sulla sua preoccupazione. Nondimeno, parlare di Etica del mondo artificiale è una sfida cui non possiamo derogare. L'Etica per quanto variabile, ha a che fare con i fini, e quindi con il comportamento umano. L'Etica, che è indubbiamente alla base del Diritto (i.e. non uccidere) può aiutarci a definire gli orizzonti necessari a stabilire delle regole di comportamento in futuro sempre più popolato da macchine. Cone detto nella conferenza di Helsinki e riportato da Alessandro Mantelero: "Questa necessaria integrazione fra etica e diritto emerge sempre più in molti documenti adottati a livello europeo, da ultimo anche nelle menzionate conclusioni della conferenza di Helsinky ove si legge *“existing landmark international instruments, including the Universal Declaration of Human Rights and the European Convention for the Protection of Human Rights and Fundamental Freedoms, are applicable irrespective of contextual changes brought about by AI and must be complied with to ensure that technological progress occurs in line with the principles of human rights, democracy and the rule of law. Ethical guidelines and self-regulation constitute additional tools to promote these values”.* Il giorno gio 21 feb 2019 alle ore 12:50 f.pizzetti <f.pizzetti@tiscali.it> ha scritto:
Condivido totalmente una per una, le parole di Giacomo Trsio. In particolare quelle sull'Etica. Parlare di Etoca di I é un modo per ABBASSARE non per ASSICURARE CORRETTA TUTELA DEI DIRITTI in questo campo. Occorrono norme giuridiche, Autorità competenti, un dialogo costante tra giuristi e tecnologi e molta molta serietà. Etica abbassa, non eleva la tutela perché sostitusce a norrme giuridiche e Linee guida principi etici variabili, a loro volta interpretabili da ogni operatatore e ogni cultura in mofo variabile (e normalmente di comodo)
Inviato da smartphone Samsung Galaxy.
-------- Messaggio originale -------- Da: Giacomo Tesio <giacomo@tesio.it> Data: 21/02/19 12:21 (GMT+01:00) A: Arturo Di Corinto <arturo.dicorinto@uniroma1.it> Cc: Nexa <nexa@server-nexa.polito.it> Oggetto: Re: [nexa] Cronache romane
Con tutto il rispetto per l'autore (delle cui buone intenzioni non dubito affatto), a me il testo sembra un susseguirsi di "non sequitur" costruiti su una premessa semplicemente sbagliata:
[Le AI] non sono software programmati ma sistemi addestrati. Si supera il modello classico if this then that in cui un ingegnere del software prevedeva prima tutte le possibili occorrenze. Le Ai rispondono in maniera autonoma a un problema che gli viene posto. Questi artefatti sono una nuova specie nelle macchine. Delle machine sapiens.
Questa premessa mostra un profondissimo fraintendimento di cosa sia e come funzioni il machine learning. Coerente con la narrazione da Twitter dell'intelligenza artificiale, utile alle aziende (alcune citate nell'articolo stesso) che puntano ad una irresponsabile deresponsabilizzazione dell'industria.
NON esistono macchine sapiens.
I profani della materia vedono nelle AI quello che vogliono vedere, indipendentemente da quello che c'è. Qualcuno scientemente, nella speranza che accettare questa allucinazione condivisa possa farli apparire come esperti della materia.
Siccome le intelligenze artificiali fondano loro decisioni sui dati e poiché questi non sono una copia perfetta della realtà non è pensabile a priori che la macchina dotata di intelligenza artificiale possa fare una scelta priva di errori. La macchina sapiens sarà sempre e costitutivamente fallibile. Le Ai hanno costitutivamente bisogno di un’etica.
Non sequitur: perché?
Non abbiamo piuttosto bisogno di normative che stabiliscano responsabilità civili e penali chiare per chi realizza e diffonde queste macchine?
Il software (e le AI sono software come gli altri) è sempre stato fallibile, perché l'uomo che lo crea è fallibile. Non è il software che ha bisogno di un etica per rispondere dei propri bug, ma l'uomo che deve risponderne.
Poiché le intelligenze artificiali possono sbagliare bisogna capire come gestire allora questo sbaglio. La questione etica è fondamentale, importantissima e urgente. Bisogna trovare un sistema etico condiviso perché l’utilizzo di questi sistemi non produca ingiustizie, non danneggi le persone e non crei dei forti disequilibri globali.
Di nuovo non sequitur. Ma la frase più preoccupante (in particolare perché espressa da un religioso) è "Bisogna trovare un sistema etico condiviso". No.
Dobbiamo avere leggi scritte da persone competenti in materia che non si facciano abbagliare o corrompere. Niente di più, niente di meno.
Il mondo nell’epoca del Digital Age è regolato degli algoritmi. Più di qualcuno parla di una algo-crazia. Per evitare che ci sia questo dominio dell’algoritmo anche grazie alle AI dobbiamo iniziare a sviluppare questo linguaggio comune dell’algor-etica.
Di nuovo, non sequitur. Ma qui viene espressa un'altra frottola MOLTO comoda assunta come rischio.
Che un algoritmo regoli qualcosa. Un software (parlare di algoritmi è, di nuovo, grossolanamente sbagliato) calcola.
CHI regola, è chi realizza il software. Chi stabilisce COME debba / possa essere usato. Che si tratti di una scrittura TRASPARENTE del codice da parte di un programmatore o della OPACA selezione pseudo casuale di una delle infinite funzioni che minimizzano l'errore quadratico medio dai punti noti entro un certo valore, sempre c'è un processo di produzione del software con ampli margini di arbitrarietà (aka potere) da parte di essere umani.
L’etica invece parla di valore morale. Dobbiamo stabilire un linguaggio che sappia tradurre il valore morale in un qualcosa di computabile per la macchina. [...] Dobbiamo mettere in grado la macchina di avere un certo senso di incertezza. [...] Tentativi di questo tipo sono portati avanti da Google e Uber con delle librerie statistiche speciali. Se la macchina ogni volta che si trova in una condizione di incertezza chiede all’uomo allora quello che stiamo realizzando è una intelligenza artificiale che pone l’umano al centro.
Ah...beh... se Uber e Google stanno realizzando "librerie statistiche speciali"... siamo a posto!
Mica hanno già lanciato prototipi di 5 tonnellate ai 70 km/h su strada uccidendo persone... Mica detengono un potere di manipolazione enorme...
Se accreditate con un qualche valore tecnico / legale, queste "librerie statistiche speciali" non salveranno l'uomo, non lo porranno al centro.
Semplicemente, solleveranno LE AZIENDE dalla responsabilità degli errori. O meglio.. solleveranno dalle responsabilità civili e penali i CdA, i CEO, gli azionisti etc... persone che traggono il maggior vantaggio dall'ignoranza diffusa in materia e che dovrebbero invece risponderne civilmente e penalmente dei danni e delle esternalità causate dai loro prodotti.
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- Arturo Di Corinto www.dicorinto.it ---------------------------------> AVVERTENZE AI SENSI DEL D.Lgs. 196/2003 Le informazioni contenute in questo messaggio di posta elettronica e/o nel/i file/s allegato/i sono da considerarsi strettamente riservate. Il loro utilizzo è consentito esclusivamente al destinatario del messaggio, per le finalità indicate nel messaggio stesso. Qualora riceviate questo messaggio senza esserne il destinatario, Vi preghiamo cortesemente di darcene notizia via e-mail e di procedere alla distruzione del messaggio stesso, cancellandolo dal Vostro sistema. Conservare il messaggio stesso, divulgarlo anche in parte, distribuirlo ad altri soggetti, copiarlo, od utilizzarlo per finalità diverse, costituisce comportamento contrario ai principi dettati dal D.Lgs. 196/2003
On March 10, 2019 10:40:41 AM UTC, Arturo Di Corinto <arturo.dicorinto@uniroma1.it> wrote:
Caro Pizzetti- concordo sulla sua preoccupazione. Nondimeno, parlare di Etica del mondo artificiale è una sfida cui non possiamo derogare.
Il punto è che non è di "Etica del mondo artificiale" che dobbiamo discutere. Dobbiamo discutere di Etica aziendale o Etica politica senza ridere sotto i baffi.
L'Etica per quanto variabile, ha a che fare con i fini, e quindi con il comportamento umano. L'Etica, che è indubbiamente alla base del Diritto (i.e. non uccidere) può aiutarci a definire gli orizzonti necessari a stabilire delle regole di comportamento in futuro sempre più popolato da macchine.
"Non uccidere" non è una affermazione etica, ma una legge di diritto (divino) "La vita umana è lo scopo fondamentale della società" è un'affermazione etica. "La conoscenza è lo scopo fondamentale della esistenza cosciente" è un'affermazione etica. "Homo homini lupus" è un'affermazione etica. "Massimizzare l'utilità individuale è lo scopo di ogni attività umana" è un'affermazione etica. Non solo sono incompatibili, tutte presumono un essere umano ad affermarle sotto la propria responsabilità. Delegare l'etica alle cose ha due effetti socialmente inaccettabili: - deresponsabilizzazione degli umani (e dunque perdita di significato dell'etica stessa) - diffusione della specifica etica scelta, che come la storia insegna, può sembrare giusta e santa in un dato momento storico e disgustosa in un altro
Cone detto nella conferenza di Helsinki e riportato da Alessandro Mantelero: "Questa necessaria integrazione fra etica e diritto emerge sempre più in molti documenti adottati a livello europeo, da ultimo anche nelle menzionate conclusioni della conferenza di Helsinky ove si legge *“existing landmark international instruments, including the Universal Declaration of Human Rights and the European Convention for the Protection of Human Rights and Fundamental Freedoms, are applicable irrespective of contextual changes brought about by AI and must be complied with to ensure that technological progress occurs in line with the principles of human rights, democracy and the rule of law. Ethical guidelines and self-regulation constitute additional tools to promote these values”.*
Le self-regulation ci hanno donato Cambridge Analytica, solo per far un esempio. Non ci vuole un genio a vedere che chiedere ad un ente di autoregolarsi vuol semplicemente dire concedergli di NON regolarsi ed inventare scuse arzigogolate quando i problemi emergono. Non è un conflitto di interessi: è una barzelletta. La chiamata alla autoregolamentazione è un comodo gettare la spugna. Invece di studiare in profondità la materia prima di regolarla in modo cauto e stringente, si dice "fate un po' come credete, solo non causate scandali che possano essere ricondotti facilmente all'ignoranza e alla miopia della Politica." Giacomo
Giacomo- Il giorno dom 10 mar 2019 alle ore 12:52 Giacomo <giacomo@tesio.it> ha scritto:
On March 10, 2019 10:40:41 AM UTC, Arturo Di Corinto < arturo.dicorinto@uniroma1.it> wrote:
Caro Pizzetti- concordo sulla sua preoccupazione. Nondimeno, parlare di Etica del mondo artificiale è una sfida cui non possiamo derogare.
Il punto è che non è di "Etica del mondo artificiale" che dobbiamo discutere.
Dobbiamo discutere di Etica aziendale o Etica politica senza ridere sotto i baffi.
Sono d'accordo, mai detto il contrario, anzi allargherei il discorso parlando di etica della scienza e di etica individuale.
"Non uccidere" non è una affermazione etica, ma una legge di diritto (divino)
Non capisco...
"La vita umana è lo scopo fondamentale della società" è un'affermazione etica. "La conoscenza è lo scopo fondamentale della esistenza cosciente" è un'affermazione etica. "Homo homini lupus" è un'affermazione etica. "Massimizzare l'utilità individuale è lo scopo di ogni attività umana" è un'affermazione etica.
È proprio ciò che intendo: quelle affermazioni etiche si sono tramutate in diritto e giurisprudenza. Ci sono paesi dove l'omosessualità è un reato, la critica al partito ti fa finire in galera, la prostituzione è libera e paga le tasse.
Non solo sono incompatibili, tutte presumono un essere umano ad affermarle sotto la propria responsabilità.
Delegare l'etica alle cose ha due effetti socialmente inaccettabili:
Non so chi auspichi di delegare l'etica a qualcun altro. Ne discutiamo qui
proprio per non delegarla a nessuno.
- deresponsabilizzazione degli umani (e dunque perdita di significato dell'etica stessa) - diffusione della specifica etica scelta, che come la storia insegna, può sembrare giusta e santa in un dato momento storico e disgustosa in un altro
Appunto, perciò sia io che Pizzetti parlavamo di variabilità dell'etica e delle sovrapposizioni fra scopi e fini.
. Ethical guidelines and self-regulation constitute
additional tools to promote these values”.*
Le self-regulation ci hanno donato Cambridge Analytica, solo per far un esempio.
Come detto verbatim, si tratta di "additional tools".
Non ci vuole un genio a vedere che chiedere ad un ente di autoregolarsi vuol semplicemente dire concedergli di NON regolarsi ed inventare scuse arzigogolate quando i problemi emergono.
È proprio per non consentire la legge del più forte che se ne deve parlare a livello pubblico e collettivo.
Giacomo
-- Arturo Di Corinto www.dicorinto.it ---------------------------------> AVVERTENZE AI SENSI DEL D.Lgs. 196/2003 Le informazioni contenute in questo messaggio di posta elettronica e/o nel/i file/s allegato/i sono da considerarsi strettamente riservate. Il loro utilizzo è consentito esclusivamente al destinatario del messaggio, per le finalità indicate nel messaggio stesso. Qualora riceviate questo messaggio senza esserne il destinatario, Vi preghiamo cortesemente di darcene notizia via e-mail e di procedere alla distruzione del messaggio stesso, cancellandolo dal Vostro sistema. Conservare il messaggio stesso, divulgarlo anche in parte, distribuirlo ad altri soggetti, copiarlo, od utilizzarlo per finalità diverse, costituisce comportamento contrario ai principi dettati dal D.Lgs. 196/2003
Evidentemente ho espresso male il mio pensiero. Vado al punto centrale del fraintendimento: io sono assolutamente favorevole al dibattito Etico e alla ricerca sull'Etica, sulla sua relazione con l'azione individuale e quella collettiva nelle diverse organizzazioni e tra diverse organizzazioni. Di più, sostengo da tempo e in contesti in cui questa affermazione è apertamente osteggiata, che l'Etica guida SEMPRE lo sviluppo tecnologico, anche quando gli autori di tale sviluppo ne negano l'esistenza o la rilevanza: stanno SEMPRE esprimendo la propria Etica, che non è nemmeno "tecnicamente" mancanza di Etica, ma Etica allineata con la loro percezione della totalità dell'Umanità. Semplicemente sostengono che tutti farebbero lo stesso, qualunque cosa stiano facendo. Ancora di più, sostengo che la creazione Tecnologica è la più prorompente forza Politica che abbia mai agito nella storia, abilitando o disabilitando certi decorsi che solo DOPO la creazione tecnologica sono diventati pensabili per l'uomo. Da questi fatti sostengo che la creazione tecnologica comporta una ENORME responsabilità Etica e Politica, responsabilità su cui ogni sviluppatore si deve confrontare PRIMA di iniziare a sviluppare un sistema. Dunque io discuto e voglio discutere di Etica. Non solo non voglio che venga delegata ad altri, ma voglio che sia una scelta consapevole del processo di ideazione tecnologica. Perché se la Tecnologia è Politica, allora è nostra responsabilità e nostro potere decidere cosa (cercare di) creare e cosa no. Tutte queste considerazioni, per quanto ovvie appaiano dalla mia prospettiva culturale, risultano scandalose per la maggior parte del settore IT, internazionale e anche spesso italiano, per due ragioni: 1. si assume che l'etica sia incompatibile con il profitto (a meno di diventare appiattito fattore di differenziazione pubblicitaria) che è lo scopo fondamentale di qualunque impresa umana 2. si pretende che gli sviluppatore pensino ESCLUSIVAMENTE al codice, che "semplicemente" facciano quello che i manager e gli azionisti non sanno fare da soli, come se fossimo una specie di macchine che producono programmi La prima è in sé una affermazione etica (diffusa quanto miope). La seconda è una baggianata pazzesca che sta in piedi solo grazie alla retorica messa su dalla Silicon Valley negli ultimi decenni. Chiarita la mia posizione sull'Etica (su cui immagino troverai diversi punti di incontro), la mia affermazione dovrebbe risultare più chiara. On 11/03/2019, Arturo Di Corinto <arturo.dicorinto@uniroma1.it> wrote:
Il giorno dom 10 mar 2019 alle ore 12:52 Giacomo <giacomo@tesio.it> ha scritto:
Delegare l'etica alle cose ha due effetti socialmente inaccettabili:
Non so chi auspichi di delegare l'etica a qualcun altro. Ne discutiamo qui proprio per non delegarla a nessuno.
Se tu inietti una funzione "etica" in un tostapane (ammettiamo che si possa fare), stai delegando l'applicazione dell'etica al suo funzionamento. Il tostapane poverino, non ha alcuna consapevolezza dell'etica o del pane. Ma tu, guardando il tuo tostapane che sulla base della temperatura e dell'umidità ambientale sceglie quando iniziare a tostare il pane per minimizzare il consumo di energia elettrica stai facendo due cose: - delegando l'etica al tostapane (nel suo piccolo) - interiorizzando, dall'interazione con il tostapane alcuni concetti etici e fisici complessi, anche se non sei in grado di esprimerli consapevolmente. Fingiamo di non considerare che il tostapane deve consumare energia per i propri sensori e per il calcolo dell'ottimo, per cui alla fine un tostapane stupido acceso da un umano semi addormentato potrebbe essere molto più ecologico (e dunque ecologicamente etico) del tuo super tostapane dotato di intelligenza artificiale. Fingiamo di non considerare anche i costi ecologici di produzione del tostapane "ecologicamente intelligente" rispetto a quello scemo, che probabilmente lo rendono la scelta peggiore ecologicamente sul mercato. Fingiamo che funzioni davvero. Fingiamo che tutte queste "applicazioni intelligenti" siano dotate di un'etica E che funzionino. (e FIDATI, è fantascienza) La prima obbiezione è che delegando la tua etica ecologista (supponiamo) alle macchinette intorno a te, la svuoti di significato, te ne lavi le mani. La seconda è però più insidiosa perché avviene poco a poco in modo impercettibile. Vogliamo davvero distribuire capillarmente nelle case? Vogliamo davvero circondare le persone di agenti che riproducono continuamente UNA etica (quale che sia)? Vogliamo davvero avviare questa enorme campagna di lavaggio del cervello attraverso l'interazione continua con tale etica? Le macchine non si adattano davvero all'uomo, anche le AI che in qualche modo modificano i propri parametri attraverso nuovi input, cambiano comunque molto poco del loro funzionamento. Quando si parla di "narrow AI" la gente guarda all'hype e immagina sia un atto di umiltà intellettuale, ma le AI sono così "narrow" che anche solo sentirle definire "intelligenza" tout court dovrebbe far ridere gli esperti. Ma evidentemente non sono poi così esperti. ;-) L'uomo invece naturalmente si adatta a ciò che lo circonda. Dunque la mia preoccupazione è che discutendo di mettere l'etica NELLE macchine avviamo un lavaggio del cervello di massa. So che è impensabile che qualcuno possa usare il software per manipolare i comportamenti delle persone, chiamatemi pure paranoico... non mi offendo! :-D D'altro canto, chiedere alle aziende di autoregolarsi, ripeto è un gettare la spugna. Lasciar fare, sperando poi di correggere il tiro se qualcosa va troppo storto. I malati di cancro a Taranto, i morti della Thyssen... abbiamo decine di esempi di quanto bene questo approccio funzioni... nel semplice. L'informatica, in quanto materia assolutamente ai primordi, è decine di ordini di grandezza più potente ed instabile di qualunque impresa l'uomo abbia avviato. E dunque più "pericolosa". L'etica non è pronta. Lontanamente. Non ha salvato nessuno... sebbene tutti gli imprenditori e i manager che hanno gestito le aziende che hanno causato questi disastri fossero persone ben integrate nella società circostante e dovessero operare con problemi molto più semplici concettualmente. Dunque, c'è un solo modo efficace di affrontare la questione: educazione di massa, estrema cautela legislativa, responsabilità forti in capo alle aziende e ai loro stakeholder, sanzioni esagerate. Se un'auto guidata da un simulatore di Uber avesse ucciso una cittadina italiana in Italia, l'intero consiglio di amministrazione (e probabilmente qualche ingegnere) avrebbero dovuto finire il carcere per omicidio colposo. Semplice, chiaro, efficace nel perseguire la sicurezza e molto educativo. L'educazione informatica (e storica) di massa è l'unico modo per preparare la futura generazione di politici a far fronte con maggiore consapevolezza (e dunque minore cautela) alla innovazione tecnologica. Saper programmare deve diventare una conoscenza di base condivisa, come leggere e scrivere. Uno strumento di libertà, invece che rimanere uno strumento di potere. Per questo se fatta bene, l'educazione informatica, gioverebbe la democrazia tutta. Giacomo
participants (3)
-
Arturo Di Corinto -
Giacomo -
Giacomo Tesio