Grazie Sì, l'articolo inquadra il problema dalla sola prospettiva delle discriminazioni e delle leggi anti-discriminazione, per scelta consapevole degli autori e resa esplicita sin dall'inizio. Credo ci sia oramai un'ampia evidenza sui limiti epistemologici che stanno alla base dell'automazione/supporto software di processi decisionali basata su dati storici. Come per tutti i problemi complessi, però, diffido da qualunque proposta risolutiva che non tenga conto dei tanti fattori in gioco, ad esempio come il sistema automatico si inserisce nel processo decisionale, il contesto e la finalità d'uso, ecc ecc ecc. Per intendersi meglio, semplifico con un esempio banale: lo stesso algoritmo di ML/AI che predice il rischio di recidiva o l'idoneità all'abilitazione all'insegnamento universitario (cit.) e che dunque è ascrivibile alla categoria astrologia, potrebbe però essere usato per rilevare attraverso i pattern statistici acquisiti nel training lo status quo della situazione, informando il decisore sui "trend" o sulle storture esistenti. Un caro saluto Antonio ________________________________ Da: Daniela Tafani <daniela.tafani@unipi.it> Inviato: venerdì 9 dicembre 2022, 5:51 PM A: Antonio Vetro' <antonio.vetro@polito.it>; mailing list nexa <nexa@server-nexa.polito.it> Oggetto: Re: [nexa] AI’s fairness problem: understanding wrongful discrimination in the context of automated decision‑making Grazie della segnalazione. Scorrendo l'articolo, mi pare che inquadri nei termini delle discriminazioni inique anche gli usi dei "predictive machine learning algorithms" in ambiti quali il reclutamento o le decisioni giudiziarie. Per questi ambiti, trovo che parlare di discriminazioni sia un pericoloso diversivo: il machine learning semplicemente non funziona, per questi ambiti, non più dell'astrologia. Se uno strumento non funziona, discutere se sia possibile renderlo non discriminatorio oscura il punto essenziale. Le applicazioni che promettono predizioni di esiti sociali sono "snake oil": https://www.cs.princeton.edu/~arvindn/talks/MIT-STS-AI-snakeoil.pdf <https://www.cs.princeton.edu/~arvindn/talks/MIT-STS-AI-snakeoil.pdf> Quanto al richiamo al controllo umano (o alla decisione umana, in ultima istanza), è un'ipotesi controfattuale: come dire a un bambino che può lanciare sassi contro il gatto, purché i sassi siano morbidi. Per restare alle proposte più in voga, il bambino se la caverebbe con una certificazione (autoprodotta) di morbidezza dei sassi. Su questo tema, ha scritto qualche mese fa Ben Green: https://www.sciencedirect.com/science/article/pii/S0267364922000292 Buona serata, Daniela ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Antonio Vetro' <antonio.vetro@polito.it> Inviato: venerdì 9 dicembre 2022 16:31 A: mailing list nexa Oggetto: [nexa] AI’s fairness problem: understanding wrongful discrimination in the context of automated decision‑making Segnalo per gli iscritti in lista che si interessassero della tematica: Cossette-Lefebvre, H., Maclure, J. AI’s fairness problem: understanding wrongful discrimination in the context of automated decision-making. AI Ethics (2022). https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202212091531100879847... (accesso aperto) Uno dei migliori articoli che ho letto finora sul tema, almeno per quanto riguarda la parte analitica e per il c.d. “framing” della questione. La parte propositiva conclusiva (3 linee guida per l’uso del ML nei processi decisionali) è un po’ meno dettagliata, ma l’ho trovata valida e molto ragionevole. Nota di merito per gli autori che hanno scritto con un linguaggio accessibile a tutti, e non solo agli addetti ai lavori. Un caro saluto A. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202212091531100879847...