Grazie

Sì, l'articolo inquadra il problema dalla sola prospettiva delle discriminazioni e delle leggi anti-discriminazione, per scelta consapevole degli autori e resa esplicita sin dall'inizio.

Credo ci sia oramai un'ampia evidenza sui limiti epistemologici che stanno alla base dell'automazione/supporto software di processi decisionali basata su dati storici.

Come per tutti i problemi complessi, però, diffido da qualunque proposta risolutiva che non tenga conto dei tanti fattori in gioco,  ad esempio come il sistema automatico si inserisce nel processo decisionale, il contesto e  la finalità d'uso, ecc ecc ecc.

Per intendersi meglio, semplifico con un esempio banale: lo stesso algoritmo di ML/AI che predice il rischio di recidiva o l'idoneità all'abilitazione all'insegnamento universitario (cit.) e che dunque è ascrivibile alla categoria astrologia, potrebbe però essere usato per rilevare attraverso i pattern statistici acquisiti nel training lo status quo della situazione, informando il decisore sui "trend" o sulle storture esistenti. 


Un caro saluto 
Antonio



Da: Daniela Tafani <daniela.tafani@unipi.it>
Inviato: venerdì 9 dicembre 2022, 5:51 PM
A: Antonio  Vetro' <antonio.vetro@polito.it>; mailing list nexa <nexa@server-nexa.polito.it>
Oggetto: Re: [nexa] AI’s fairness problem: understanding wrongful discrimination in the context of automated decision‑making

Grazie della segnalazione.


Scorrendo l'articolo, mi pare che inquadri nei termini delle discriminazioni inique

anche gli usi dei  "predictive machine learning algorithms" in ambiti quali il reclutamento o le decisioni giudiziarie.


Per questi ambiti, trovo che parlare di discriminazioni sia un pericoloso diversivo:

il machine learning semplicemente non funziona, per questi ambiti,

non più dell'astrologia.

Se uno strumento non funziona, discutere se sia possibile renderlo non discriminatorio oscura il punto essenziale.

Le applicazioni che promettono predizioni di esiti sociali sono "snake oil":

https://www.cs.princeton.edu/~arvindn/talks/MIT-STS-AI-snakeoil.pdf


Quanto al richiamo al controllo umano (o alla decisione umana, in ultima istanza), è un'ipotesi controfattuale:

come dire a un bambino che può lanciare sassi contro il gatto, purché i sassi siano morbidi.
Per restare alle proposte più in voga, il bambino se la caverebbe con una certificazione (autoprodotta)
di morbidezza dei sassi.

Su questo tema, ha scritto qualche mese fa Ben Green:

https://www.sciencedirect.com/science/article/pii/S0267364922000292


Buona serata,
Daniela



Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Antonio Vetro' <antonio.vetro@polito.it>
Inviato: venerdì 9 dicembre 2022 16:31
A: mailing list nexa
Oggetto: [nexa] AI’s fairness problem: understanding wrongful discrimination in the context of automated decision‑making
 
Segnalo per gli iscritti in lista che si interessassero della tematica:

Cossette-Lefebvre, H., Maclure, J.
AI’s fairness problem: understanding wrongful discrimination in the context of automated decision-making.
AI Ethics (2022).   https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202212091531100879847&URLID=2&ESV=10.0.18.7423&IV=8ACA8D8048EE7C09F1B0136172E2A1FD&TT=1670599871241&ESN=ggWKcjsPtmQEomI3NJDHAmvLa9kTVakKpOpZHYrEvCY%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9kb2kub3JnLzEwLjEwMDcvczQzNjgxLTAyMi0wMDIzMy13&HK=08B4E25F7CB529EB279816714F0EA127CD745FC6F718FA59EE38B43FEF9B0766 (accesso aperto)

Uno dei migliori articoli che ho letto finora sul tema, almeno per quanto riguarda la parte analitica e per il c.d. “framing” della questione.
La parte propositiva conclusiva (3 linee guida per l’uso del ML nei processi decisionali) è un po’ meno dettagliata, ma l’ho trovata valida e molto ragionevole.

Nota di merito per gli autori che hanno scritto con un linguaggio accessibile a tutti, e non solo agli addetti ai lavori.

Un caro saluto

A.
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202212091531100879847&URLID=1&ESV=10.0.18.7423&IV=B5447B7A82DB0EF4F3456F8A36144EC3&TT=1670599871241&ESN=Meamaa6Z4yowei%2Fo3Ufd%2FV2iCqrUVfDBtFNWrKyQIZc%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=126869319D81178A57E6EF02E5C43EC197B2984BF287FE739EE9AF37F3BB0E4D