On 21 Feb 2020, at 11:20, nexa-request@server-nexa.polito.it wrote:
From: Alberto Cammozzo <ac+nexa@zeromx.net <mailto:ac+nexa@zeromx.net>> To: Stefano Quintarelli <stefano@quintarelli.it <mailto:stefano@quintarelli.it>>, Center Nexa <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> Subject: Re: [nexa] Washington Passes Government Facial Recognition Rules
On 21/02/2020 10:41, Stefano Quintarelli wrote:
interessante sta imponendo limiti anche ai privati.
il problema con la persona che puo' cambiare decisione e' che non lo fara' perche' i suoi incentivi sono a confermare la predizione del sistema, anche se non e' d’accordo. Questo avviene già adesso con i protocolli medici. I medici si attengono strettamente ai protocolli, anche se li ritengono on adatti al caso, in quanto se venissero contestati, possono sempre ricorrere all'argomento di aver seguito il protocollo, quindi esimendosi dalla propria responsabilità.
sono sempre piu' convinto che servira' qualche forma di prediction poisoning https://5ta.it/cm/d5f6 <https://5ta.it/cm/d5f6>
Interessante la parte sugli incentivi e sono d'accordo: l'asimmetria informativa genera selezione avversa (Akerlof, George A., 1970,. "The Market for 'Lemons': Quality Uncertainty and the Market Mechanism". /Quarterly Journal of Economics/. The MIT Press. *84*)
Sul poisoning sono perplesso: può funzionare, ma chi si prende la responsabilità del poisoning, cioè di aver deliberatamente fatto sbagliare la macchina per rendere l'umano attento?
Non mi è chiaro quale sia il beneficio del poisoning. Alla fine ci si riduce sempre ad un unica alternativa, se le opinioni della macchina e quella del dottore siano discordanti o meno. Il fatto che venga scambiato il segno di alcune delle decisioni della macchina, non cambia nulla, se non l’effetto psicologico di un dottore che tendesse a dare ragione alla macchina. Ma questo si risolve, non facendo vedere la decisione della macchina al dottore prima che lui decida. — Beppe
Imho, per via dell'automation paradox, "human-over-the-loop" non può funzionare. O è dentro o è fuori. Se è dentro decide, se è fuori non serve. Se decide, i motivi per la decisione devono essere interni all'umano perchè possa risponderne, con dispositivi di supporto alla decisione esterni, al caso, del cui output risponde chi li produce.
ciao, A.
ciao, s.