On mar, 2022-09-20 at 10:14 +0200, 380° wrote:
Ma ci deve essere una catena di comando/responsabilità reale, e la tracciabilità delle decisioni dell'IA.
stai scherzando vero?
La "tracciabilità delle decisioni dell'IA" non esiste, una volta che passi la fase 2 di https://nooscope.ai/ (Learning Algorithm) il processo è IRREVERSIBILE
detto in altro modo, dato il modello non è possibile ricavare l'algoritmo, i criteri di valutazione, l'ambiente di testing, gli iperparametri, i criteri di labeling...
No, non sto scherzando. E' il nocciolo della questione. La catena di responsabilità DEVE includere tutto l'operato di una IA, anche quello che non è tracciato. Se il chirurgo robot taglia in due il paziente e non c'è tracciamento, la responsabilità deve comunque essere di qualcuno, e deve essere assegnata "a priori" in maniera certa non dopo un processo. Non è una mera questione tecnica di "intracciabilità" sulla quale, ovviamente, non posso non concordare. saluti. marco