Bravo Norberto! IMHO sarebbe importante modificare la costituzione aggiungendo un articolo che stabilisca questo punto come principio fondamentale. Maria Chiara, grazie per le tue lucidissime considerazioni. m.c. In data venerdì 9 novembre 2018 20:34:22 CET, PATRIGNANI NORBERTO ha scritto:
Come diceva Weizenbaum (1976!) le situazioni che richiedono "judgement, respect, understanding, caring and love" NON dovrebbero essere delegate a una macchina. Ciao, Norberto
On Fri, 09 Nov 2018 18:41:47 +0100
Maria Chiara Pievatolo <pievatolo@dsp.unipi.it> wrote:
Scusate il ritardo nel rispondere. Mi ripromettevo di
farlo prima.
On 11-10-2018 00:34, Giacomo Tesio wrote:
Io invece obbietto QUALE ETICA? Quale delle 10 miliardi di etiche presenti sul pianeta
vogliamo
insegnare alle macchine e dunque imporre a tutti coloro
che le
adoperano?
La questione è molto pertinente, perché ci permette di
passare dall'etica alla meta-etica, che si pone una domanda di un livello superiore a "che cosa è giusto
fare?", vale a dire: che cosa ci rende possibile chiederci che cosa è giusto
fare?
La risposta di Kant alla questione meta-etica è la
seguente: questa domanda ha senso solo se presupponiamo che chi se lo chiede sia un agente libero. Meta-eticamente, cioè, l'etica non è (solo) un algoritmo per fare la cosa giusta (secondo questo o quel parametro) ma il discorso di un essere libero. Banale? No, perché questo mette dei limiti a tutte le etiche che non rispettano questa condizione, vale a dire negano la dignità del soggetto morale in quanto essere libero, capace di scegliere e di rispondere sui suoi propri progetti, cioè, in linguaggio kantiano, di essere fine in sé. Senza esseri liberi non si dà etica, perché non si dà scelta, responsabilità e senso (soggettivo).
Pertanto, meta-eticamente: (1) un algoritmo per fare la
cosa giusta che nega la libertà dei soggetti e dunque la loro pari dignità in quanto liberi portatori di senso non può essere etico. Ma (2) questo comporta che ci possano essere situazioni - quelle tipiche dello ius necessitatis (mors tua vita mea)- per le quali non sia possibile formulare un algoritmo per fare la cosa giusta che ci salvi la vita e rispetti allo stesso modo tutti i soggetti morali in gioco.
Per questo la risposta kantiana al problema del trolley
sarebbe, secondo me, simile a quella di Giacomo Tesio: evitare di progettare sistemi che prevedibilmente producano quelle situazioni
[L'etica utilitarista] garantisce solo una discreta
prevedibilità degli attori a valle di
stimoli specifici.
Appunto. Ma per essere etici non basta produrre e
imporre un algoritmo per fare la cosa giusta.
Un saluto, MCP
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa