Re: [nexa] Autonomous Vehicle Ethics: Beyond the Trolley Problem (call for papers) (Giacomo Tesio)
On 10-10-2018 12:00, nexa-request@server-nexa.polito.it wrote:
"Non uccidere."
E' corto. E non è originale. Ma qualcuno dovrebbe proporlo. Io inveterei l'autore, ma se la tira un po'... :-D
Scusate se intervengo in forma un po' oracolare, non avendo tempo per partecipare attivamente alla discussione. Ma proprio ieri uno studente, in relazione alla critica di Kant contro lo ius necessitatis (https://btfp.sp.unipi.it/dida/kant_mds/ch03s06.xhtml#iusnecessitatis), che autorizzerebbe a uccidere persone innocenti in caso di emergenza, mi ha chiesto come Kant avrebbe risolto il problema del trolley. Io gli ho risposto che in un universo morale non utilitaristico, ma deontologico, basato sull'idea della pari dignità delle persone (*), un sistema progettato per uccidere in caso di emergenza (ius necessitatis) sarebbe semplicemente immorale, perché è immorale fare bilanci di vite e di morti con classifiche di soggetti più o meno sacrificabili e dunque *di non pari dignità*. Un sistema di veicoli autonomi, per essere kantianamente accettabile, dovrebbe essere progettato in modo da evitare situazioni nelle quali si proponga il problema del trolley. Che è pari pari quello che scrive Giacomo Tesio: I veicoli autonomi non necessitano di etica [utilitaristica - aggiunta mia]: bastano strade dedicate, isolate dal traffico umano, e torri di controllo. Infrastrutture, insomma. Ho trovato la coincidenza così "serendipitous" che ho pensato di raccontarvela. Forse può servire a qualcuno. Un saluto, MCP (*) Qui (https://btfp.sp.unipi.it/dida/kant_mds/ch03s07.xhtml#partizionedoverigiuridi...), per i tecnici, Kant, che è giusnaturalista, scrive che il primo dovere giuridico è riconoscere la dignità del soggetto di diritto in quanto tale, richiamando la seconda formulazione dell'imperativo categorico) -- Maria Chiara Pievatolo Dipartimento di Scienze politiche Università di Pisa Via Serafini 3 56126 Pisa (Italy) +39 050 2212479 http://btfp.sp.unipi.it https://twitter.com/btfp1 https://people.unipi.it/mariachiara_pievatolo/
Maria Chiara, grazie per gli ottimi riferimenti. :-) Il tema del trolley è stato affrontato su questa lista qualche mese fa: http://server-nexa.polito.it/pipermail/nexa/2018-March/013165.html Se il tuo studente è un po' versato in matematica, immaginare ogni vita umana come un vettore su una dimensione ortogonale a tutte le altre può fargli comprendere l'impossibilità di stabilire priorità, fosse anche fra una vita contro un milione.
Un sistema di veicoli autonomi, per essere kantianamente accettabile, dovrebbe essere progettato in modo da evitare situazioni nelle quali si proponga il problema del trolley.
Non solo kantianamente. Per essere cristianamente accettabile, anche. Sospetto che su questo anche ebrei e mussulmani concorderebbero. E gli umanisti (ce ne sono ancora?).
I veicoli autonomi non necessitano di etica [utilitaristica - aggiunta mia]: bastano strade dedicate, isolate dal traffico umano, e torri di controllo.
Giusto. Etica Utilitaristica. Assunta comodamente come l'unica etica che meriti insegnare alle macchine. Io invece obbietto QUALE ETICA? Quale delle 10 miliardi di etiche presenti sul pianeta vogliamo insegnare alle macchine e dunque imporre a tutti coloro che le adoperano? La risposta che pochi osano dare, ma che tutti assumono è: "l'etica utilitarista del capitalismo!" Le ragioni sono diverse: 1. trattandosi di un etica basata su un singolo valore scalare, il denaro, è facile da modellare su un computer 2. chi la vuole imporre ne beneficia (almeno nel breve periodo) 3. in presenza di una cultura egemonica, pochi accendono il cervello e si chiedono "perché?" E d'altro canto, lo stesso problema del trolley e ancor più la Moral Machine del MIT sono formulate in modo da assumere questa morale e sono dunque strumenti di propaganda della stessa. Sempre su questo tema, sabato uno studente ha posto una domanda filosoficamente interessante: https://www.radioradicale.it/scheda/553800?p=0&s=1339&t=1383&f=0
E' nel nostro interesse avere macchine che possano compiere scelte etiche esattamente come l'uomo? Ovvero, avendo già l'uomo che compie scelte etiche è nel nostro interesse avere altri agenti che agiscono sempre secondo scelte etiche e quindi, riprendendo Nietzsche, agendo in maniera disinteressata dal materiale, dall'interesse materiale, e quindi compiendo scelte che possano andare anche contro la razionalità?
A me la domanda era sembrata molto più interessante delle possibili risposte. Chi ha detto che l'etica è irrazionale, per esempio? E che cosa è razionale? In presenza di lacune informative, un agente razionale agisce in modo razionale? Il suo agire non può essere ottimo anche se ha il tempo per calcolare una decisione ottima. E in un sistema caotico, capacità di calcolo e informazioni disponibili sono sempre limitate. Dunque, nella vita reale, la razionalità "materialista" cui faceva riferimento questo studente è razionale? La morale e l'etica sono strumenti che l'evoluzione ci ha fornito per far fronte in modo efficiente ed efficace a questi problemi non concretamente computabili della vita reale. Come tali, utilizzarli potrebbe essere la soluzione più razionale. Quando si nega legittimità all'etica o alla morale perché irrazionale, si compie una scelta irrazionale. E d'altro canto, un'etica utilitarista applicata su vasta scala non garantisce la massima utilità per tutti. Garantisce solo una discreta prevedibilità degli attori a valle di stimoli specifici. Giacomo
Buongiorno a Tutti, sono nuova della list, che seguo con vivo interesse. Sul tema, proprio nei termini critici da ultimo ricostruiti da Giacomo, segnalo il saggio (giusfilosofico) di Claudio Sarra 'Il diritto e il dilemma. Il modello giuridico di fronte alla scelta tragica' in Zanuso-Fuselli ( a cura di) ' Il lascito di Atena', 2011. Un saluto, Letizia Mingardo Professore a contratto di Metodologia e Informatica giuridica Università di Padova Giacomo Tesio <giacomo@tesio.it> ha scritto:
Maria Chiara, grazie per gli ottimi riferimenti. :-)
Il tema del trolley è stato affrontato su questa lista qualche mese fa: http://server-nexa.polito.it/pipermail/nexa/2018-March/013165.html Se il tuo studente è un po' versato in matematica, immaginare ogni vita umana come un vettore su una dimensione ortogonale a tutte le altre può fargli comprendere l'impossibilità di stabilire priorità, fosse anche fra una vita contro un milione.
Un sistema di veicoli autonomi, per essere kantianamente accettabile, dovrebbe essere progettato in modo da evitare situazioni nelle quali si proponga il problema del trolley.
Non solo kantianamente. Per essere cristianamente accettabile, anche. Sospetto che su questo anche ebrei e mussulmani concorderebbero. E gli umanisti (ce ne sono ancora?).
I veicoli autonomi non necessitano di etica [utilitaristica - aggiunta mia]: bastano strade dedicate, isolate dal traffico umano, e torri di controllo.
Giusto. Etica Utilitaristica. Assunta comodamente come l'unica etica che meriti insegnare alle macchine.
Io invece obbietto QUALE ETICA? Quale delle 10 miliardi di etiche presenti sul pianeta vogliamo insegnare alle macchine e dunque imporre a tutti coloro che le adoperano? La risposta che pochi osano dare, ma che tutti assumono è: "l'etica utilitarista del capitalismo!"
Le ragioni sono diverse: 1. trattandosi di un etica basata su un singolo valore scalare, il denaro, è facile da modellare su un computer 2. chi la vuole imporre ne beneficia (almeno nel breve periodo) 3. in presenza di una cultura egemonica, pochi accendono il cervello e si chiedono "perché?"
E d'altro canto, lo stesso problema del trolley e ancor più la Moral Machine del MIT sono formulate in modo da assumere questa morale e sono dunque strumenti di propaganda della stessa.
Sempre su questo tema, sabato uno studente ha posto una domanda filosoficamente interessante: https://www.radioradicale.it/scheda/553800?p=0&s=1339&t=1383&f=0
E' nel nostro interesse avere macchine che possano compiere scelte etiche esattamente come l'uomo? Ovvero, avendo già l'uomo che compie scelte etiche è nel nostro interesse avere altri agenti che agiscono sempre secondo scelte etiche e quindi, riprendendo Nietzsche, agendo in maniera disinteressata dal materiale, dall'interesse materiale, e quindi compiendo scelte che possano andare anche contro la razionalità?
A me la domanda era sembrata molto più interessante delle possibili risposte.
Chi ha detto che l'etica è irrazionale, per esempio? E che cosa è razionale?
In presenza di lacune informative, un agente razionale agisce in modo razionale? Il suo agire non può essere ottimo anche se ha il tempo per calcolare una decisione ottima. E in un sistema caotico, capacità di calcolo e informazioni disponibili sono sempre limitate. Dunque, nella vita reale, la razionalità "materialista" cui faceva riferimento questo studente è razionale?
La morale e l'etica sono strumenti che l'evoluzione ci ha fornito per far fronte in modo efficiente ed efficace a questi problemi non concretamente computabili della vita reale. Come tali, utilizzarli potrebbe essere la soluzione più razionale.
Quando si nega legittimità all'etica o alla morale perché irrazionale, si compie una scelta irrazionale. E d'altro canto, un'etica utilitarista applicata su vasta scala non garantisce la massima utilità per tutti. Garantisce solo una discreta prevedibilità degli attori a valle di stimoli specifici.
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Scusate il ritardo nel rispondere. Mi ripromettevo di farlo prima. On 11-10-2018 00:34, Giacomo Tesio wrote:
Io invece obbietto QUALE ETICA? Quale delle 10 miliardi di etiche presenti sul pianeta vogliamo insegnare alle macchine e dunque imporre a tutti coloro che le adoperano?
La questione è molto pertinente, perché ci permette di passare dall'etica alla meta-etica, che si pone una domanda di un livello superiore a "che cosa è giusto fare?", vale a dire: che cosa ci rende possibile chiederci che cosa è giusto fare? La risposta di Kant alla questione meta-etica è la seguente: questa domanda ha senso solo se presupponiamo che chi se lo chiede sia un agente libero. Meta-eticamente, cioè, l'etica non è (solo) un algoritmo per fare la cosa giusta (secondo questo o quel parametro) ma il discorso di un essere libero. Banale? No, perché questo mette dei limiti a tutte le etiche che non rispettano questa condizione, vale a dire negano la dignità del soggetto morale in quanto essere libero, capace di scegliere e di rispondere sui suoi propri progetti, cioè, in linguaggio kantiano, di essere fine in sé. Senza esseri liberi non si dà etica, perché non si dà scelta, responsabilità e senso (soggettivo). Pertanto, meta-eticamente: (1) un algoritmo per fare la cosa giusta che nega la libertà dei soggetti e dunque la loro pari dignità in quanto liberi portatori di senso non può essere etico. Ma (2) questo comporta che ci possano essere situazioni - quelle tipiche dello ius necessitatis (mors tua vita mea)- per le quali non sia possibile formulare un algoritmo per fare la cosa giusta che ci salvi la vita e rispetti allo stesso modo tutti i soggetti morali in gioco. Per questo la risposta kantiana al problema del trolley sarebbe, secondo me, simile a quella di Giacomo Tesio: evitare di progettare sistemi che prevedibilmente producano quelle situazioni
[L'etica utilitarista] garantisce solo una discreta prevedibilità degli attori a valle di stimoli specifici.
Appunto. Ma per essere etici non basta produrre e imporre un algoritmo per fare la cosa giusta. Un saluto, MCP -- Maria Chiara Pievatolo Dipartimento di Scienze politiche Università di Pisa Via Serafini 3 56126 Pisa (Italy) +39 050 2212479 http://btfp.sp.unipi.it https://twitter.com/btfp1 https://people.unipi.it/mariachiara_pievatolo/
Come diceva Weizenbaum (1976!) le situazioni che richiedono "judgement, respect, understanding, caring and love" NON dovrebbero essere delegate a una macchina. Ciao, Norberto On Fri, 09 Nov 2018 18:41:47 +0100 Maria Chiara Pievatolo <pievatolo@dsp.unipi.it> wrote:
Scusate il ritardo nel rispondere. Mi ripromettevo di farlo prima.
On 11-10-2018 00:34, Giacomo Tesio wrote:
Io invece obbietto QUALE ETICA? Quale delle 10 miliardi di etiche presenti sul pianeta vogliamo insegnare alle macchine e dunque imporre a tutti coloro che le adoperano?
La questione è molto pertinente, perché ci permette di passare dall'etica alla meta-etica, che si pone una domanda di un livello superiore a "che cosa è giusto fare?", vale a dire:
che cosa ci rende possibile chiederci che cosa è giusto fare?
La risposta di Kant alla questione meta-etica è la seguente: questa domanda ha senso solo se presupponiamo che chi se lo chiede sia un agente libero. Meta-eticamente, cioè, l'etica non è (solo) un algoritmo per fare la cosa giusta (secondo questo o quel parametro) ma il discorso di un essere libero. Banale? No, perché questo mette dei limiti a tutte le etiche che non rispettano questa condizione, vale a dire negano la dignità del soggetto morale in quanto essere libero, capace di scegliere e di rispondere sui suoi propri progetti, cioè, in linguaggio kantiano, di essere fine in sé. Senza esseri liberi non si dà etica, perché non si dà scelta, responsabilità e senso (soggettivo).
Pertanto, meta-eticamente: (1) un algoritmo per fare la cosa giusta che nega la libertà dei soggetti e dunque la loro pari dignità in quanto liberi portatori di senso non può essere etico. Ma (2) questo comporta che ci possano essere situazioni - quelle tipiche dello ius necessitatis (mors tua vita mea)- per le quali non sia possibile formulare un algoritmo per fare la cosa giusta che ci salvi la vita e rispetti allo stesso modo tutti i soggetti morali in gioco.
Per questo la risposta kantiana al problema del trolley sarebbe, secondo me, simile a quella di Giacomo Tesio: evitare di progettare sistemi che prevedibilmente producano quelle situazioni
[L'etica utilitarista] garantisce solo una discreta prevedibilità degli attori a valle di stimoli specifici.
Appunto. Ma per essere etici non basta produrre e imporre un algoritmo per fare la cosa giusta.
Un saluto, MCP
-- Maria Chiara Pievatolo Dipartimento di Scienze politiche Università di Pisa Via Serafini 3 56126 Pisa (Italy) +39 050 2212479 http://btfp.sp.unipi.it https://twitter.com/btfp1 https://people.unipi.it/mariachiara_pievatolo/ _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Bravo Norberto! IMHO sarebbe importante modificare la costituzione aggiungendo un articolo che stabilisca questo punto come principio fondamentale. Maria Chiara, grazie per le tue lucidissime considerazioni. m.c. In data venerdì 9 novembre 2018 20:34:22 CET, PATRIGNANI NORBERTO ha scritto:
Come diceva Weizenbaum (1976!) le situazioni che richiedono "judgement, respect, understanding, caring and love" NON dovrebbero essere delegate a una macchina. Ciao, Norberto
On Fri, 09 Nov 2018 18:41:47 +0100
Maria Chiara Pievatolo <pievatolo@dsp.unipi.it> wrote:
Scusate il ritardo nel rispondere. Mi ripromettevo di
farlo prima.
On 11-10-2018 00:34, Giacomo Tesio wrote:
Io invece obbietto QUALE ETICA? Quale delle 10 miliardi di etiche presenti sul pianeta
vogliamo
insegnare alle macchine e dunque imporre a tutti coloro
che le
adoperano?
La questione è molto pertinente, perché ci permette di
passare dall'etica alla meta-etica, che si pone una domanda di un livello superiore a "che cosa è giusto
fare?", vale a dire: che cosa ci rende possibile chiederci che cosa è giusto
fare?
La risposta di Kant alla questione meta-etica è la
seguente: questa domanda ha senso solo se presupponiamo che chi se lo chiede sia un agente libero. Meta-eticamente, cioè, l'etica non è (solo) un algoritmo per fare la cosa giusta (secondo questo o quel parametro) ma il discorso di un essere libero. Banale? No, perché questo mette dei limiti a tutte le etiche che non rispettano questa condizione, vale a dire negano la dignità del soggetto morale in quanto essere libero, capace di scegliere e di rispondere sui suoi propri progetti, cioè, in linguaggio kantiano, di essere fine in sé. Senza esseri liberi non si dà etica, perché non si dà scelta, responsabilità e senso (soggettivo).
Pertanto, meta-eticamente: (1) un algoritmo per fare la
cosa giusta che nega la libertà dei soggetti e dunque la loro pari dignità in quanto liberi portatori di senso non può essere etico. Ma (2) questo comporta che ci possano essere situazioni - quelle tipiche dello ius necessitatis (mors tua vita mea)- per le quali non sia possibile formulare un algoritmo per fare la cosa giusta che ci salvi la vita e rispetti allo stesso modo tutti i soggetti morali in gioco.
Per questo la risposta kantiana al problema del trolley
sarebbe, secondo me, simile a quella di Giacomo Tesio: evitare di progettare sistemi che prevedibilmente producano quelle situazioni
[L'etica utilitarista] garantisce solo una discreta
prevedibilità degli attori a valle di
stimoli specifici.
Appunto. Ma per essere etici non basta produrre e
imporre un algoritmo per fare la cosa giusta.
Un saluto, MCP
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
On 09/11/2018 18:41, Maria Chiara Pievatolo wrote:
Scusate il ritardo nel rispondere. Mi ripromettevo di farlo prima.
On 11-10-2018 00:34, Giacomo Tesio wrote:
Io invece obbietto QUALE ETICA? Quale delle 10 miliardi di etiche presenti sul pianeta vogliamo insegnare alle macchine e dunque imporre a tutti coloro che le adoperano?
La questione è molto pertinente, perché ci permette di passare dall'etica alla meta-etica, che si pone una domanda di un livello superiore a "che cosa è giusto fare?", vale a dire:
che cosa ci rende possibile chiederci che cosa è giusto fare?
La risposta di Kant alla questione meta-etica è la seguente: questa domanda ha senso solo se presupponiamo che chi se lo chiede sia un agente libero. Meta-eticamente, cioè, l'etica non è (solo) un algoritmo per fare la cosa giusta (secondo questo o quel parametro) ma il discorso di un essere libero. Banale? No, perché questo mette dei limiti a tutte le etiche che non rispettano questa condizione, vale a dire negano la dignità del soggetto morale in quanto essere libero, capace di scegliere e di rispondere sui suoi propri progetti, cioè, in linguaggio kantiano, di essere fine in sé. Senza esseri liberi non si dà etica, perché non si dà scelta, responsabilità e senso (soggettivo).
Pertanto, meta-eticamente: (1) un algoritmo per fare la cosa giusta che nega la libertà dei soggetti e dunque la loro pari dignità in quanto liberi portatori di senso non può essere etico. Ma (2) questo comporta che ci possano essere situazioni - quelle tipiche dello ius necessitatis (mors tua vita mea)- per le quali non sia possibile formulare un algoritmo per fare la cosa giusta che ci salvi la vita e rispetti allo stesso modo tutti i soggetti morali in gioco.
Per questo la risposta kantiana al problema del trolley sarebbe, secondo me, simile a quella di Giacomo Tesio: evitare di progettare sistemi che prevedibilmente producano quelle situazioni
Chiarissimo, grazie. Condivido pienamente. Ma perché -- anche se spero di sbagliarmi -- la nostra società non sarà in grado di produrre questo genere di moratoria se non troppo tardi e troppo poco? Questi ultimi interventi sollevano una questione di fondo: da molti dei messaggi in questa lista traspare (almeno ai miei occhi) un senso di impotenza sull'erosione tecnologica delle libertà, velocissima al pari di quella del ghiaccio delle calotte polari. "Quod licet" ha lasciato il passo a "quod potest", la filosofia non confina la tecnica, al massimo ne lima (fiaccamente) gli abusi più maldestri quando questi oltrepassano i confini del diritto, come se l'unica filosofia rimasta sia quella sedimentata (per ora) nelle norme giuridiche; nel frattempo il senso comune gioiosamente abbraccia l'asservimento. Aveva forse ragione Marcuse, nel considerare il nostro principio di libertà inscindibile da una società (quella greca antica) che considera la fatica un disvalore e perciò necessita degli schiavi? Ma uno schiavo al quale non puoi rinunciare sarà presto il tuo padrone... Un saluto, Alberto
Provo, per puro spirito dialettico (e per una sorta di disagio che sento leggendo questo tread) a dare un diverso punto di vista, forse"eccessivo" e un po' grezzo: chiedo venia anticipatamente. L'avversione per l'idea che degli algoritmi prendano decisioni capaci di influenzare più o meno profondamente la nostra vita è tenace e radicata in tutti noi, a dispetto della realtà che già viviamo. Mi viene in mente la vicenda dei prezzi del vino Bordeaux e dell'algoritmo di Orley Ashenfelter: l'algoritmo messo a punto dall'economista di Princeton per calcolare i prezzi futuri delle varie annate di Boreaux era, ed è, efficace ed accurato ma la reazione nei circoli di viticoltori francesi (ovvero tra i sistemi umani esperti del settore) "oscillò tra la violenza e l'isteria". Per i sommelier francesi l'algoritmo era "ridicolo e assurdo" e nessuna "combinazione meccanica" di variabili poteva sostituire l'intuito umano ( e soprattutto il fatto di assaggiare il vino!) . La storia fu raccontata dal NYT qui: https://www.nytimes.com/1990/03/04/us/wine-equation-puts-some-noses-out-of-j... ed interessante. Siamo temo tutti un po' vittime di quella che Kahaneman chiama l'illusione di abilità. E sebbene decisioni umane cagionino quotidianamente la morte di bambini innocenti, immagino lo sconcerto e l'orrore che ci coglierà quando un bambino morirà per un errore (o una scelta, magari assai logica e razionale) di un algoritmo (o di una AV). La differenza di intensità emozionale si tradurrà immediatamente in preferenza morale ed in elevate e tetragone valutazioni etiche o addirittura religiose. Il problema del carrello applicato ai veicoli autonomi mi pare falsante, utile perlopiù a dotte disquisizioni filosofiche che lascio a chi ne sa, ma sono inquieto se le risposte saranno quelle,irrazionali ed emozionali di Marco (Marco, so che mi perdonerai!) che vorrebbe costituzionalizzare il pensiero di Weizenbaum citato da Norberto. Dio ce ne scampi. Cosa ci fa dire che la scelta dell'algoritmo sarà meno efficace e rassicurante della fallacia del giudizio umano? Meehl ritiene immorale affidarsi a giudizi intuitivi (di un carrellista aggiungo io) per decisioni importanti quando è disponibile un algoritmo esperto che può elaborare molte più informazioni in ambienti a basa validità (ovvero con un notevole grado di incertezza e imprevedibilità). Un'ultima osservazione per Maria Chiara: perchè usi il condizionale parlando dello "ius necessitatis"? Lo stato di necessità (art. 54 c.p.) esclude la punibilità, anche in caso di omicidio dell'innocente. L'alpinista che taglia la corda del fidato compagno condannandolo a morte certa per salvar se stesso, là dove non abbia dato causa alla situazione di necessità creatasi, non viene punito. Poi possiamo fare mille pregevoli considerazioni etiche e morali e fin anche teologiche, che leggo con piacere ma a cui però mi sottraggo non arrischiandomi a pattinare su di un ghiaccio per me assai sottile. Buona domenica a tutti. CB Il giorno sab 10 nov 2018 alle ore 16:09 Alberto Cammozzo < ac+nexa@zeromx.net> ha scritto:
On 09/11/2018 18:41, Maria Chiara Pievatolo wrote:
Scusate il ritardo nel rispondere. Mi ripromettevo di farlo prima.
On 11-10-2018 00:34, Giacomo Tesio wrote:
Io invece obbietto QUALE ETICA? Quale delle 10 miliardi di etiche presenti sul pianeta vogliamo insegnare alle macchine e dunque imporre a tutti coloro che le adoperano?
La questione è molto pertinente, perché ci permette di passare dall'etica alla meta-etica, che si pone una domanda di un livello superiore a "che cosa è giusto fare?", vale a dire:
che cosa ci rende possibile chiederci che cosa è giusto fare?
La risposta di Kant alla questione meta-etica è la seguente: questa domanda ha senso solo se presupponiamo che chi se lo chiede sia un agente libero. Meta-eticamente, cioè, l'etica non è (solo) un algoritmo per fare la cosa giusta (secondo questo o quel parametro) ma il discorso di un essere libero. Banale? No, perché questo mette dei limiti a tutte le etiche che non rispettano questa condizione, vale a dire negano la dignità del soggetto morale in quanto essere libero, capace di scegliere e di rispondere sui suoi propri progetti, cioè, in linguaggio kantiano, di essere fine in sé. Senza esseri liberi non si dà etica, perché non si dà scelta, responsabilità e senso (soggettivo).
Pertanto, meta-eticamente: (1) un algoritmo per fare la cosa giusta che nega la libertà dei soggetti e dunque la loro pari dignità in quanto liberi portatori di senso non può essere etico. Ma (2) questo comporta che ci possano essere situazioni - quelle tipiche dello ius necessitatis (mors tua vita mea)- per le quali non sia possibile formulare un algoritmo per fare la cosa giusta che ci salvi la vita e rispetti allo stesso modo tutti i soggetti morali in gioco.
Per questo la risposta kantiana al problema del trolley sarebbe, secondo me, simile a quella di Giacomo Tesio: evitare di progettare sistemi che prevedibilmente producano quelle situazioni
Chiarissimo, grazie. Condivido pienamente.
Ma perché -- anche se spero di sbagliarmi -- la nostra società non sarà in grado di produrre questo genere di moratoria se non troppo tardi e troppo poco? Questi ultimi interventi sollevano una questione di fondo: da molti dei messaggi in questa lista traspare (almeno ai miei occhi) un senso di impotenza sull'erosione tecnologica delle libertà, velocissima al pari di quella del ghiaccio delle calotte polari. "Quod licet" ha lasciato il passo a "quod potest", la filosofia non confina la tecnica, al massimo ne lima (fiaccamente) gli abusi più maldestri quando questi oltrepassano i confini del diritto, come se l'unica filosofia rimasta sia quella sedimentata (per ora) nelle norme giuridiche; nel frattempo il senso comune gioiosamente abbraccia l'asservimento. Aveva forse ragione Marcuse, nel considerare il nostro principio di libertà inscindibile da una società (quella greca antica) che considera la fatica un disvalore e perciò necessita degli schiavi? Ma uno schiavo al quale non puoi rinunciare sarà presto il tuo padrone...
Un saluto,
Alberto
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Il giorno Dom 11 Nov 2018 14:34 Carlo Blengino < blengino@penalistiassociati.it> ha scritto:
Provo, per puro spirito dialettico (e per una sorta di disagio che sento leggendo questo tread) a dare un diverso punto di vista, forse"eccessivo" e un po' grezzo: chiedo venia anticipatamente.
Mi dispiace per il disagio e mi piacerebbe approfondire cosa lo provochi esattamente, ma ti ringrazio per aver proposto una prospettiva ulteriore su questa materia.
L'avversione per l'idea che degli algoritmi prendano decisioni
Anzitutto non stiamo parlando di algoritmi (che sono sostanzialmente idee) ma di software che cerca di esprimere tali idee. La differenza è profonda e dovremmo resistere all'uso improprio del termine "algoritmo" perché nasconde tutti i problemi che un programma può avere nonostante la correttezza dell'algoritmo. In altri termini, i computer non eseguono algoritmi, ma programmi. E questi programmi sono determinisci anche quando gli algoritmi non lo sono. E questi programmi sono pieni di errori. Vi è poi un altro problema: i calcolatori calcolano, non decidono. La differenza parte dagli operatori, non informazioni ma dati. Le informazioni stanno nelle nostre teste, mentre i dati sono rappresentazioni di tali informazioni. Vi sono molteplici rappresentazioni possibili di una certa informazione e da una rappresentazione noi umani possiamo estrarre informazioni attraverso il processo interpretativo. Passare dai dati in output a delle decisioni (ovvero informazioni) passa sempre attraverso tale processo ed è dunque inevitabilmente arbitrario. Mi viene in mente la vicenda dei prezzi del vino Bordeaux e dell'algoritmo
di Orley Ashenfelter..
Interessante lettura, grazie.
Siamo temo tutti un po' vittime di quella che Kahaneman chiama l'illusione di abilità.
Temo di no. Io so come funzionano questi sistemi. Temo piuttosto che siamo di fronte ad un profondo fraintendimento su cosa siano questi simulatori che viene sfruttato per confondere e manipolare i profani. In pratica qui la parte dei sommelier non la fanno gli umani preoccupati di perdere la posti di lavoro, ma i ricercatori e gli imprenditori della AI che temono di perdere investimenti. E sebbene decisioni umane cagionino quotidianamente la morte di bambini
innocenti, immagino lo sconcerto e l'orrore che ci coglierà quando un bambino morirà per un errore (o una scelta, magari assai logica e razionale) di un algoritmo (o di una AV). La differenza di intensità emozionale si tradurrà immediatamente in preferenza morale ed in elevate e tetragone valutazioni etiche o addirittura religiose.
No. La differenza è esclusivamente Politica. La responsabilità umana infatti risponde a una esigenza sociale, è fondamentale per qualsiasi sistema giuridico ma anche semplicemente per vivere insieme in una famiglia.
Il problema del carrello applicato ai veicoli autonomi mi pare falsante, utile perlopiù a dotte disquisizioni filosofiche che lascio a chi ne sa, ma sono inquieto se le risposte saranno quelle,irrazionali ed emozionali di Marco (Marco, so che mi perdonerai!) che vorrebbe costituzionalizzare il pensiero di Weizenbaum citato da Norberto. Dio ce ne scampi.
Per la verità è la prima volta che sento una proporre una modifica ai principi fondamentali della Costituzione che mi sembri sensato discutere. Detto questo, mi chiedo se l'articolo 3 non sia già sufficiente.
Cosa ci fa dire che la scelta dell'algoritmo sarà meno efficace e rassicurante della fallacia del giudizio umano?
Non è questione di efficacia (spesso difficilmente misurabile) ma di responsabilità. E comunque un computer calcola, non sceglie. Meehl ritiene immorale affidarsi a giudizi intuitivi (di un carrellista
aggiungo io) per decisioni importanti quando è disponibile un algoritmo esperto che può elaborare molte più informazioni in ambienti a basa validità (ovvero con un notevole grado di incertezza e imprevedibilità).
L'algoritmo esiste solo nella testa di chi lo conosce. Quanto al software questo è un prodotto fallibile di uomini fallibili. E lo dico in quanto uomo fallibile che lotta quotidianamente contro questi fallimenti. L'idea che il software possa essere superiore all'uomo dimentica che quel software è scritto collettivamente da migliaia di uomini diversi con obbiettivi diversi e scorrelati.
Un'ultima osservazione per Maria Chiara: perchè usi il condizionale parlando dello "ius necessitatis"? Lo stato di necessità (art. 54 c.p.) esclude la punibilità, anche in caso di omicidio dell'innocente. L'alpinista che taglia la corda del fidato compagno condannandolo a morte certa per salvar se stesso, là dove non abbia dato causa alla situazione di necessità creatasi, non viene punito. Poi possiamo fare mille pregevoli considerazioni etiche e morali e fin anche teologiche, che leggo con piacere ma a cui però mi sottraggo non arrischiandomi a pattinare su di un ghiaccio per me assai sottile.
Splendido esempio. Proprio in punto. Ma l'alpinista non viene punito proprio perché è responsabile. Mentre taglia la corda sa che risponderà in prima persona alla famiglia della vittima. Uomo fra uomini. Non c'è niente di trascendentale in questo, è un meccanismo sociale e politico che caratterizza l'uomo e che ha favorito la sua evoluzione. Una macchina non risponde delle conseguenze dei propri calcoli. Per questo è sbagliato dire che "decide". D'altro canto se lo stesso alpinista uccide il compagno accidentalmente, facendo cadere un masso sulla sua testa, ne risponde di fronte alla legge. La stessa cosa deve valere per un robot che uccide o ferisce un uomo: qualcuno ne deve sempre rispondere. Se permettiamo a macchine di fare ciò che è punito tra gli uomini perché chi le vende promette che lo faranno di meno, rinunciamo agli articoli 2 e 3 della Costituzione. E probabilmente allo stato di diritto, al monopolio dell'uso legittimo della violenza. Perché se permettiamo ad una macchina di fare, autonomamente e senza che nessuno ne risponda, qualcosa che è vietato ad un uomo, i ricchi saranno istantaneamente al di sopra della Legge.
Buona domenica a tutti. CB
Buona domenica! E a presto! Giacomo
In pratica il trolley problem sarebbe falsante perché focalizza l'attenzione sul carrello e non sul contesto in cui opera. Si tratterebbe dunque di una questione di framing: il contesto e l'impatto quantitativo della novità tecnologica possono essere eticamente molto più rilevanti dell'elemento qualitativo. Chi ha messo il carrello dove, e perché? E' una metropolitana o un tram per strada? Chi ha deciso che deve avere una guida autonoma e perché? Discutere della sola "intelligenza della macchina" inquadra il problema in modo tecnocentrico elidendo le decisioni ed azioni _umane_, inclusa quella di delegare o meno la decisione alla macchina; il che dipende dal contesto, come sembra suggerire il ragionamento di Meehl: accettabile delegare in una metropolitana, inaccettabile per un tram. Restando nel framing tecnocentrico ci si concentra sull'elemento di novità tecnologica (l'AI) ma si da per implicito che il contesto sia dato (inevitabile) e le scelte umane (opposte a quelle della macchina) siano un vecchio problema (risolto), e così il vero problema morale va sullo sfondo. Le tabulatrici Hollerith (macchine per nulla autonome) furono usate nel censimento tedesco del 1933 e consentirono ai nazisti una formidabile efficienza nell'identificare e selezionare le vittime del loro programma di sterminio. Le tabulatrici non introdussero un elemento qualitativamente diverso (lo stesso lavoro poteva essere fatto più lentamente a mano), ma farlo velocemente ha consentito azioni qualitativamente diverse. Il dramma etico del loro impiego fu determinato dal contesto di odio razziale in cui macchine di per se innocue furono usate. Conoscendo il loro futuro uso, un ingegnere della allora IBM avrebbe potuto obiettare alla loro progettazione, costruzione, riparazione, ecc. Ignorandolo, le tabulatrici non avrebbero mai posto per lui un problema morale. Esempi di questo tipo in cui gli elementi di contesto e quantitativi sono più rilevanti di quelli qualitativi sono innumerevoli. Il problema è attualissimo e per me perfino urgente: quello che oggi tecnici come me sono chiamati a fare ogni giorno è fornire strumenti per fare esattamente quello che facevano le tabulatrici Hollerith: selezionare persone e gruppi in base ad informazioni che esse stesse hanno fornito. Possiamo risolvere tali questioni etiche con un framing tecnocentrico prescindendo dal contesto? La nostra società ha maturato posizioni tali da farci escludere che qualcosa di simile possa mai più verificarsi? Abbiamo bandito l'odio razziale, la discriminazione? Non direi. Sto lavorando a un progetto di data Analytics per un comune del Nord Est che mira a facilitare le scelte del decisore pubblico in un quadro di trasparenza, accountability e partecipazione. Non posso però ignorare che il mio progetto potrà altrettanto efficacemente servire, nelle mani di una amministrazione meno etica di quella attuale, per scopi diametralmente opposti, e perciò sono orientato a non svilupparlo affatto. Non è il timore di violare norme a preoccuparmi, e forse nemmeno quello di un giudizio morale, ma le concrete possibilità di impiego che lo strumento apre. In un contesto sociale in cui il senso comune e il giudizio diffuso tutelano dei valori e rendono almeno improbabili queste derive il problema si pone come scrupolo; ma in un contesto di disinteresse assiologico e di inconsapevolezza diffuse le tutele giuridiche non bastano. In sintesi quello che il trolley problem contribuisce a nascondere, mettendo in evidenza il problema della decisione _della macchina_, è lo sfondo di decisioni _umane_ assistite dalle macchine. Le AI introducono elementi di novità qualitativa, ma le sole differenze quantitative bastano a definire gli aspetti etici rilevanti. Incidentalmente, aggiungo che questo reframing che includa il contesto obbligherebbe a riconsiderare molte scelte passate sostanziamente per tecniche. In Italia: anagrafe centralizzata, fatturazione elettronica, fascicolo sanitario elettronico. Schedatura Sari e Sari real-time. Nessuno di questi sistemi esplicitamente decide in modo autonomo e tutti fanno cose che già fanno altri sistemi decentrati o analogici, solo in modo più efficiente e centralizzato. Ma che azioni *qualitativamente* diverse consentono questi sistemi che prima non erano possibili o erano troppo dispendiose? E in quale contesto? Nelle mani di chi va questo potere? Scusate la lunghezza... Alberto On 11/11/2018 14:33, Carlo Blengino wrote:
Provo, per puro spirito dialettico (e per una sorta di disagio che sento leggendo questo tread) a dare un diverso punto di vista, forse"eccessivo" e un po' grezzo: chiedo venia anticipatamente.
L'avversione per l'idea che degli algoritmi prendano decisioni capaci di influenzare più o meno profondamente la nostra vita è tenace e radicata in tutti noi, a dispetto della realtà che già viviamo. Mi viene in mente la vicenda dei prezzi del vino Bordeaux e dell'algoritmo di Orley Ashenfelter: l'algoritmo messo a punto dall'economista di Princeton per calcolare i prezzi futuri delle varie annate di Boreaux era, ed è, efficace ed accurato ma la reazione nei circoli di viticoltori francesi (ovvero tra i sistemi umani esperti del settore) "oscillò tra la violenza e l'isteria". Per i sommelier francesi l'algoritmo era "ridicolo e assurdo" e nessuna "combinazione meccanica" di variabili poteva sostituire l'intuito umano ( e soprattutto il fatto di assaggiare il vino!) . La storia fu raccontata dal NYT qui: https://www.nytimes.com/1990/03/04/us/wine-equation-puts-some-noses-out-of-j... ed interessante.
Siamo temo tutti un po' vittime di quella che Kahaneman chiama l'illusione di abilità. E sebbene decisioni umane cagionino quotidianamente la morte di bambini innocenti, immagino lo sconcerto e l'orrore che ci coglierà quando un bambino morirà per un errore (o una scelta, magari assai logica e razionale) di un algoritmo (o di una AV). La differenza di intensità emozionale si tradurrà immediatamente in preferenza morale ed in elevate e tetragone valutazioni etiche o addirittura religiose.
Il problema del carrello applicato ai veicoli autonomi mi pare falsante, utile perlopiù a dotte disquisizioni filosofiche che lascio a chi ne sa, ma sono inquieto se le risposte saranno quelle,irrazionali ed emozionali di Marco (Marco, so che mi perdonerai!) che vorrebbe costituzionalizzare il pensiero di Weizenbaum citato da Norberto. Dio ce ne scampi.
Cosa ci fa dire che la scelta dell'algoritmo sarà meno efficace e rassicurante della fallacia del giudizio umano? Meehl ritiene immorale affidarsi a giudizi intuitivi (di un carrellista aggiungo io) per decisioni importanti quando è disponibile un algoritmo esperto che può elaborare molte più informazioni in ambienti a basa validità (ovvero con un notevole grado di incertezza e imprevedibilità).
Un'ultima osservazione per Maria Chiara: perchè usi il condizionale parlando dello "ius necessitatis"? Lo stato di necessità (art. 54 c.p.) esclude la punibilità, anche in caso di omicidio dell'innocente. L'alpinista che taglia la corda del fidato compagno condannandolo a morte certa per salvar se stesso, là dove non abbia dato causa alla situazione di necessità creatasi, non viene punito. Poi possiamo fare mille pregevoli considerazioni etiche e morali e fin anche teologiche, che leggo con piacere ma a cui però mi sottraggo non arrischiandomi a pattinare su di un ghiaccio per me assai sottile.
Buona domenica a tutti. CB
Il giorno sab 10 nov 2018 alle ore 16:09 Alberto Cammozzo <ac+nexa@zeromx.net <mailto:ac%2Bnexa@zeromx.net>> ha scritto:
On 09/11/2018 18:41, Maria Chiara Pievatolo wrote: > Scusate il ritardo nel rispondere. Mi ripromettevo di farlo prima. > > On 11-10-2018 00:34, Giacomo Tesio wrote: > >> Io invece obbietto QUALE ETICA? >> Quale delle 10 miliardi di etiche presenti sul pianeta vogliamo >> insegnare alle macchine e dunque imporre a tutti coloro che le >> adoperano? > > La questione è molto pertinente, perché ci permette di passare > dall'etica alla meta-etica, che si pone una domanda di un livello > superiore a "che cosa è giusto fare?", vale a dire: > > che cosa ci rende possibile chiederci che cosa è giusto fare? > > La risposta di Kant alla questione meta-etica è la seguente: questa > domanda ha senso solo se presupponiamo che chi se lo chiede sia un > agente libero. Meta-eticamente, cioè, l'etica non è (solo) un > algoritmo per fare la cosa giusta (secondo questo o quel parametro) ma > il discorso di un essere libero. Banale? No, perché questo mette dei > limiti a tutte le etiche che non rispettano questa condizione, vale a > dire negano la dignità del soggetto morale in quanto essere libero, > capace di scegliere e di rispondere sui suoi propri progetti, cioè, in > linguaggio kantiano, di essere fine in sé. Senza esseri liberi non si > dà etica, perché non si dà scelta, responsabilità e senso (soggettivo). > > Pertanto, meta-eticamente: (1) un algoritmo per fare la cosa giusta > che nega la libertà dei soggetti e dunque la loro pari dignità in > quanto liberi portatori di senso non può essere etico. Ma (2) questo > comporta che ci possano essere situazioni - quelle tipiche dello ius > necessitatis (mors tua vita mea)- per le quali non sia possibile > formulare un algoritmo per fare la cosa giusta che ci salvi la vita e > rispetti allo stesso modo tutti i soggetti morali in gioco. > > Per questo la risposta kantiana al problema del trolley sarebbe, > secondo me, simile a quella di Giacomo Tesio: evitare di progettare > sistemi che prevedibilmente producano quelle situazioni
Chiarissimo, grazie. Condivido pienamente.
Ma perché -- anche se spero di sbagliarmi -- la nostra società non sarà in grado di produrre questo genere di moratoria se non troppo tardi e troppo poco? Questi ultimi interventi sollevano una questione di fondo: da molti dei messaggi in questa lista traspare (almeno ai miei occhi) un senso di impotenza sull'erosione tecnologica delle libertà, velocissima al pari di quella del ghiaccio delle calotte polari. "Quod licet" ha lasciato il passo a "quod potest", la filosofia non confina la tecnica, al massimo ne lima (fiaccamente) gli abusi più maldestri quando questi oltrepassano i confini del diritto, come se l'unica filosofia rimasta sia quella sedimentata (per ora) nelle norme giuridiche; nel frattempo il senso comune gioiosamente abbraccia l'asservimento. Aveva forse ragione Marcuse, nel considerare il nostro principio di libertà inscindibile da una società (quella greca antica) che considera la fatica un disvalore e perciò necessita degli schiavi? Ma uno schiavo al quale non puoi rinunciare sarà presto il tuo padrone...
Un saluto,
Alberto
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Il giorno lun 12 nov 2018 alle ore 16:07 Alberto Cammozzo <ac+nexa@zeromx.net> ha scritto:
Le tabulatrici Hollerith (macchine per nulla autonome) furono usate nel censimento tedesco del 1933 e consentirono ai nazisti una formidabile efficienza nell'identificare e selezionare le vittime del loro programma di sterminio.
Su discorsi come questo io ho riscontrato un enorme resistenza in molte delle comunità tecniche internazionali che frequento. L'idea che la creazione tecnologica comporti una responsabilità morale, etica e dunque politica risulta impensabile in quel contesto e viene attivamente osteggiata. L'idea DOMINANTE è che la tecnologia debba essere neutrale ed irresponsabile. La responsabilità va sempre e solo assegnata a chi la usa, mai a chi la crea. Dire che è nostra responsabilità scegliere accuratamente quali problemi risolvere, che possiamo dire "No", sembra una bestemmia. Naturalmente vi sono eccezioni, ma non molte, nella mia esperienza. E questo modello culturale viene esportato sistematicamente con le tecnologie che produce. Sarà probabilmente Filosofia (malattia cronica dei curiosi :-D), ma credo si tratti di una tensione fra due caratteristiche proprie dell'uomo, determinate dalla sua evoluzione: - da un lato l'esigenza primordiale di competere, favorita dalla capacità di calcolo dell'uomo (che le macchine aumentano) - dall'altro l'esigenza successiva di collaborare, favorita da norme condivise Da un lato l'organismo, dall'altro l'organizzazione. Lungo 4 milioni di anni, non so dire se a portarci fino qui sia stata più l'una, più l'altra, o proprio la tensione fra le due. D'altro canto, la mia impressione, confrontando batteri unicellulari a organismi multicellulari come l'uomo, è che la direzione su cui siamo lanciati sia chiara. Ci pensavo leggendo questo passaggio di Maria Chiara: Il giorno Dom 11 Nov 2018 21:30 Maria Chiara Pievatolo <mariachiara.pievatolo@unipi.it> ha scritto:
Molto prima che si discutesse di carrelli, infatti, i filosofi politici discutevano del problema della guerra giusta: organizzazioni umane con un certo grado di meccanicità - i soldati degli eserciti devono obbedire agli ordini e in molti luoghi e molti tempi non viene o veniva riconosciuto loro il diritto all'obiezione di coscienza - possono o no uccidere innocenti avendo delle ragioni morali per farlo?
I giusnaturalisti che rispondevano di sì sostenevano in sostanza che è accettabile costruire un'organizzazione, o una serie di organizzazioni legittimate a uccidere per ragioni morali; quelli che rispondevano di no - lo stesso Kant, per esempio - scrivevano progetti filosofici per costruire una sfera internazionale nella quale fosse possibile risolvere le controversie fra stati senza ricorrere alla guerra. Si chiedevano, cioè, se fossero pensabili sistemi per evitare che cittadini e popoli si trovassero di fronte a dilemmi - predisposti da organizzazioni umane - del tipo mors tua /vita mea.
Individui con una spiccata tendenza a collaborare tenderanno a costruire organizzazioni più complesse, basate su strutture valoriali capaci di sostenerle ed inglobare le organizzazioni più piccole. Individui con una spiccata tendenza a competere tenderanno a minimizzare la dimensione di tali organizzazioni al minimo necessario per massimizzare il proprio vantaggio, e di conseguenza a minare quelle strutture valoriali che sottendono a organizzazioni più vaste. D'altro canto stiamo parlando di tecnologie che sono anzitutto militari.
Nessuno di questi sistemi esplicitamente decide in modo autonomo e tutti fanno cose che già fanno altri sistemi decentrati o analogici, solo in modo più efficiente e centralizzato. Ma che azioni *qualitativamente* diverse consentono questi sistemi che prima non erano possibili o erano troppo dispendiose? E in quale contesto?
Il pericolo infatti non viene dall'intelligenza artificiale, ma dall'uomo. L'informatica TUTTA va considerata come uno strumento potenzialmente pericoloso. Rivoluzionario. Come la scrittura o la stampa. Strumento ancora grezzo, molto primitivo, ma comunque potentissimo.
Nelle mani di chi va questo potere?
Beh, al momento, nei fatti, è nelle mani di noi informatici. Poi noi lo cediamo facilmente perché siamo sostanzialmente inconsapevoli di tale potere. E siamo indottrinati a rifiutarne la responsabilità.
Scusate la lunghezza...
ROTFL! ! ! :-D Giacomo
In data domenica 11 novembre 2018 14:33:32 CET, Carlo Blengino ha scritto:
ma sono inquieto se le risposte saranno quelle,irrazionali ed emozionali di Marco (Marco, so che mi perdonerai!) Sei perdonato. :-)
che vorrebbe costituzionalizzare il pensiero di Weizenbaum citato da Norberto. Dio ce ne scampi. Se non fosse che esprimere giudizi sulle persone che scrivono in lista (invece che argomentare rispetto alle idee che esprimono) è contrario alla Netiquette, direi che la tua reazione ("Dio ce ne scampi") è irrazionale ed emozionale. ;-)
Puoi argomentare perché sei contrario all'introduzione nella nostra costituzione di un principio per il quale le decisioni che riguardano le persone debbono, in ultima istanza, essere imputate a delle persone? IMHO, in una certa misura, il principio è già "insinuato" tra i diritti fondamentali. Vedi, per es., l'art. 22, comma 1, GDPR ai sensi del quale "L'interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona.". Quindi non trovo scandaloso che la nostra costituzione prenda posizione su questo in modo più "generale" (la formulazione di Weizenbaum è quasi perfetta). Anzi: penso che discutere di questo sia molto utile per evitare che si finisca a pensare che, per il bene dell'economia, chi causa danni "algoritmici" debba essere trattato con benevolenza se l'algoritmo causa meno danni di un umano. m.c.
Il giorno lun 12 nov 2018 alle ore 23:13 Marco Ciurcina <ciurcina@studiolegale.it> ha scritto:
Anzi: penso che discutere di questo sia molto utile per evitare che si finisca a pensare che, per il bene dell'economia, chi causa danni "algoritmici" debba essere trattato con benevolenza se l'algoritmo causa meno danni di un umano.
A maggior ragione perché un programma complesso può compiere errori: - difficilmente osservabili in isolamento - riprodotti massivamente in modo imprevedibile Certi bug si verificano in casi limite che risulta difficile isolare "in laboratorio", ma quanto tali casi si verificano l'errore si ripropone puntualmente. La cosa di solito passa inosservata fin tanto che il caso limite e' molto raro, ma piccole variazioni al contorno possono far diventare un piccolo problema enorme. Un piccolo aneddoto: un sistema HFT che avevo sviluppato qualche anno fa per gioco stava funzionando molto bene, sfruttando la volatilità del mercato italiano. Poi in due settimane abbiamo perso quanto guadagnato nei 6 mesi precedenti. Cosa era successo? Il Governo Renzi. La volatilità dei titoli su cui lavoravamo si ridusse bruscamente, per cui il programma (qualcuno direbbe impropriamente algoritmo) incappava nei propri limiti molto più frequentemente. Nel tempo consentito dal budget disponibile non fu possibile identificare e correggere il problema, per cui abbandonammo i nostri sogni di ricchezza. E dire che l'avevo votato! ah no... era un altro... :-D Purtroppo si tratta di uno scenario frequente: un bug rimane inosservato (o scientemente ignorato) fin quando le condizioni al contorno non lo riproducono in modo massivo. A quel punto pero', i danni diventano rapidamente devastanti. Dunque e' estremamente difficile dire se un programma causerà meno danni di un umano. O danni meno gravi. Nel punto giusto, al momento giusto, privo di adeguata supervisione, un programma apparentemente innocuo ed affidabile potrebbe causare una strage. E non sarebbe "colpa" sua, la sua elaborazione sarebbe la stessa di sempre. Razionale come prima, date le informazioni disponibili ed il suo codice. Riprodotta all'infinito, senza dubbio alcuno. Giacomo
participants (7)
-
Alberto Cammozzo -
Carlo Blengino -
Giacomo Tesio -
Letizia Mingardo -
Marco Ciurcina -
Maria Chiara Pievatolo -
PATRIGNANI NORBERTO