Il 29 marzo 2018 10:00, Giacomo Tesio <giacomo@tesio.it> ha scritto:
I robot, esposti alla complessità di un ambiente ricco di variabili la cui misurabilità è finita, lo sono ancora di più.
Infatti nel momento in cui DECIDI di metterli nell'ambiente, hai tutto il CONTROLLO necessario per decidere di NON metterli nell'ambiente.
Se ti ASSUMI la responsabilità di metterli nell'ambiente SENZA SAPERE PREVEDERE come si comporteranno, è un problema tuo.
Hai una scelta. Se la eserciti, poi ne DEVI rispondere.
Aggiungo, anche la prevedibilità è un argomento futile. I semafori di Torino controllati dal sistema 5T (di cui ho parlato in questa mailing list e che è descritto http://www.5t.torino.it/ ) dispongono di un algoritmo locale e di sistema globale cittadino che determina la lunghezza dei vari verdi agli incroci. MA questi algoritmi si muvono all'interno di CONTROLLI HARDWARE che impediscono a due verdi opposti di essere accesi. Questo perché chi ha realizzato il sistema non si sarebbe MAI SOGNATO di scaricare sulla collettività la responsabilità delle morti causate dai propri errori. Magari per voi è stata mancanza di fantasia. Ma a me pare che di sovraumano, la IA abbia solo la faccia tosta. Se il software non è sicuro, aggiungi altri sistemi di sicurezza EVENTUALMENTE A LIVELLO HARDWARE, fino a quando il sistema nel suo complesso non è sicuro. E se uno di questi sistemi di sicurezza è montato male, la colpa è tua. Giacomo