_______________________________________________Grazie a Daniela, molto interessante. A me l'allegato è arrivato.
Due anni fa, assalito da incubi sulla possibilità di un comportamento morale (opaco) insegnato alle macchine ho scritto un racconto per vedere che succede a portare fino alle estreme conseguenze il trolley problem: chi sacrificherebbe una macchina onnipotente dovendo proteggere la vita?
Chi fosse interessato può leggerlo qui:
<http://mmzz.org/2020/12/30/un-messaggio-urgente/>
Alberto
On 20/11/22 18:52, Daniela Tafani wrote:
Scusatemi, non lo sapevo. Grazie.
Sì, è il primo.
Buona serata,
Daniela
Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di maurizio lana <maurizio.lana@uniupo.it>
Inviato: domenica 20 novembre 2022 18:37:18
A: nexa@server-nexa.polito.it
Oggetto: Re: [nexa] ethical AI (era "It’s time to admit, self-driving cars aren’t going to happen")nella mailing list gli allegati vengono tagliati, purtroppo.
se si tratta di uno di questi, ognuno di noi può vedere come recuperarlo grazie ai sistemi bibliotecari a cui appartiene - o con downlod o con document delivery:
Tafani, Daniela. 2020. «Sulla moralità artificiale. Le decisioni delle macchine tra etica e diritto». Rivista di filosofia 111 (1): 81–103.———. 2021. «L’imperativo categorico come algoritmo. Kant e l’etica delle macchine». Sistemi intelligenti 33 (2): 377–92.
perché credo che queste discussioni s(t)iano al cuore della questione «società di fronte a sistemi di IA»
e demitizzandone la narrazione rendono possibile discutere pubblicamente dei sistemi di IA in modo razionale e non-religioso.
Maurizio
Il 20/11/22 18:01, nexa-request@server-nexa.polito.it ha scritto:
Date: Sun, 20 Nov 2022 17:01:54 +0000 From: Daniela Tafani <daniela.tafani@unipi.it> To: "D. Davide Lamanna" <davide.lamanna@binarioetico.it>, "nexa@server-nexa.polito.it" <nexa@server-nexa.polito.it> Subject: Re: [nexa] [DKIM Failed] Re: ethical AI (era "It’s time to admit, self-driving cars aren’t going to happen") Ritengo che sia stato geniale, come strategia di marketing, accompagnare i primi disastrosi viaggi delle auto a guida (non) autonoma con una rivisitazione del dilemma del trolley, quasi che quei veicoli che continuano a schiantarsi, ancora oggi (dati dei test) contro un terzo dei ciclisti e contro tutte le altre auto che siano, pur lentamente, in arrivo, siano in grado di sciogliere dilemmi su questioni di vita e di morte in modo più sofisticato di una roulette russa. Analogamente, ritengo che la tesi che occorra interrogarsi su chi uccidere, in caso di incidenti inevitabili, perché il diritto non conterrebbe le risposte a simili domande, sia uno specchietto per le allodole. Il diritto degli stati con costituzioni che tutelino alcuni diritti fondamentali vieta infatti simili domande e questa è già una precisa risposta. Del resto, se volessi farmi costruire una casa, in un terreno libero tra un supermercato e un asilo nido, e l'ingegnere incaricato mi chiedesse se preferisco che, in caso di crollo, la casa frani, uccidendoli, sui bambini del nido o sui clienti del supermercato, cambierei senz'altro ingegnere. Ho provato a ricostruire alcuni aspetti morali e giuridici di questa questione qualche tempo fa (in un articolo non a accesso libero, di cui allego perciò il preprint), quando ancora non erano emersi dati su vere e proprie truffe, come le auto programmate per disattivare l'autopilot subito prima delle collisioni, così da far ricadere la colpa sul conducente umano, e quando ancora non avevo capito che non vedremo auto a guida autonoma se non in strade dedicate, entro contesti che non richiedano il senso comune. Il fatto che si stia costruendo oggi una strada liscissima, ex novo, per i test di tali auto, mi pare promettente: superati i test, basterà riasfaltare tutte le strade del mondo... (https://www.highwaysmagazine.co.uk/ , numero di novembre 2022)
everybody knows that the war is over everybody knows that the good guys lost everybody knows the fight was fixed the poor stay poor, the rich get rich l. cohen, everybody knows (1988)
Maurizio Lana
Università del Piemonte Orientale
Dipartimento di Studi Umanistici
Piazza Roma 36 - 13100 Vercelli
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa