On mar, 2022-09-20 at 10:14 +0200, 380° wrote:
> Ma ci deve essere una catena di comando/responsabilità reale, e la tracciabilità
> delle decisioni dell'IA.
stai scherzando vero?
La "tracciabilità delle decisioni dell'IA" non esiste, una volta che
passi la fase 2 di
https://nooscope.ai/ (Learning Algorithm) il
processo è IRREVERSIBILE
detto in altro modo, dato il modello non è possibile ricavare
l'algoritmo, i criteri di valutazione, l'ambiente di testing, gli
iperparametri, i criteri di labeling...
No, non sto scherzando.
E' il nocciolo della questione. La catena di responsabilità DEVE
includere tutto l'operato di una IA, anche quello che non è tracciato.
Se il chirurgo robot taglia in due il paziente e non c'è
tracciamento, la responsabilità deve comunque essere
di qualcuno, e deve essere assegnata "a priori" in maniera certa
non dopo un processo.
Non è una mera questione tecnica di "intracciabilità"
sulla quale, ovviamente, non posso non concordare.
saluti. marco