On lun, 2022-09-19 at 13:09 +0200, 380° wrote:
l'AI propone, l'uomo dispone: la /decisione/ finale in merito al fatto
che la determinazione (l'output) dell'AI sia sensato e debba essere
seguito deve essere sempre dell'umano
> The important thing is to take the existence of this class of attack
> into account when designing these systems. There may be systems that
> should not be built at all until we have a robust solution.
Ammettiamo che funzioni, e quindi che ci sia un AI che prende una decisione
semplice, diciamo binaria, in modo che basti accendere una lampadina,
mettiamo rossa.
Ci vuole poi l'uomo nella catena di comando, che non avrà particolari
requisiti, perché se requisiti fossero enunciabili, non useremmo
l'IA ma uomini addestrati.
Se l'uomo nella catena di comando non ha particolari requisiti,
sarà ovviamente una risorsa umana dal costo più basso possibile,
tipo esaminatori di filmati CSAM di un social, probabilmente altrettanto stressati
Ora, mettiamo che l'applicazione controlli una bussola per accedere
all'aeroporto, dotata di IA per identificare i terroristi e di inceneritore
incorporato per diminuirne il numero.
C'è l'uomo nella catena di comando, voi siete il falso positivo nella bussola
e la luce rossa si accende.
Nessuno è mai stato licenziato per aver dato retta alla luce rossa.
Morale: se un intelligenza artificiale deve essere usata per prendere
decisioni, deve poterlo fare in autonomia, senza quel "controllo umano"
che nella pratica, come tutti sanno o dovrebbero sapere, è un termine di fantasia.
Ma ci deve essere una catena di comando/responsabilità reale, e la tracciabilità
delle decisioni dell'IA.
Lo so, è molto difficile da realizzare, ed ed è pure un pensiero eretico, ma
"l'uomo nella catena di comando" è una solo una pericolosa formula autoassolutoria
di marketing.
JM2EC. Marco