Grazie della segnalazione.
Scorrendo l'articolo, mi pare che inquadri nei termini delle discriminazioni inique
anche gli usi dei "predictive machine learning algorithms" in ambiti quali il reclutamento o le decisioni giudiziarie.
Per questi ambiti, trovo che parlare di discriminazioni sia un pericoloso diversivo:
il machine learning semplicemente non funziona, per questi ambiti,
non più dell'astrologia.
Se uno strumento non funziona, discutere se sia possibile renderlo non discriminatorio oscura il punto essenziale.
Le applicazioni che promettono predizioni di esiti sociali sono "snake oil":
https://www.cs.princeton.edu/~arvindn/talks/MIT-STS-AI-snakeoil.pdf
Quanto al richiamo al controllo umano (o alla decisione umana, in ultima istanza), è un'ipotesi controfattuale:
come dire a un bambino che può lanciare sassi contro il gatto, purché i sassi siano morbidi.
Per restare alle proposte più in voga, il bambino se la caverebbe con una certificazione (autoprodotta)
di morbidezza dei sassi.
Su questo tema, ha scritto qualche mese fa Ben Green:
https://www.sciencedirect.com/science/article/pii/S0267364922000292
Buona serata,
Daniela