Grazie della interessantissima risposta. Approfitto della tua competenza per chiederti alcuni chiarimenti. Il Mar 3 Apr 2018 19:17 Marco Ciurcina <ciurcina@studiolegale.it> ha scritto:
In data martedì 3 aprile 2018 13:25:57 CEST, Giacomo Tesio ha scritto:
1) una persona muore per un baco in una libreria open source utilizzata da un veicolo autonomo È certamente un problema del proprietario del veicolo.
Questo mi sorprende moltissimo, perché a meno che il proprietario non abbia realizzato in proprio il veicolo autonomo, non ha alcun controllo sullo stesso. Forse anche di qualcun altro (dipende dalla fattispecie).
Ma, in Italia, se il programmatore non ha agito con dolo o colpa grave, non penso ci possano essere problemi per lui.
Dolo no, ma bug ed errori di progettazione sono le uniche "colpe" che si possa ricondurre alla attività di programmazione. E francamente non saprei definirne un ordine di gravità.
In entrambi i casi, il baco incriminato è un ago in un pagliaio enorme,
con
la massa del Monviso. Se subisco un danno, cerco chi gestisce il pagliaio. Il problema di identificare l'ago è del gestore del pagliaio :-)
Assumendo onestà da parte del gestore del pagliaio la cosa funziona. Ma temo che il gestore abbia gioco facile a nascondere l'ago negando l'errore di calcolo che da origine alla discriminazione. Può letteralmente tirare fuori decine di bug che NON causano l'errore in questione solo per dimostrare al giudice la propria buona fede.
Rinunciare a ricercarlo equivale ad incentivare l'utilizzo malevolo del informatica.
Personalmente, penso che i bachi vadano cercati con attenzione. IMHO il regime di responsabilità vigente incentiva fortemente chi vuole usare del sw a farlo.
Chi usa il software non ha modo di "cercare" i bachi, o quanto meno può trovare solo quelli più evidenti. I bachi vanno evitati da chi produce il software. Il che aumenta esponenzialmente il costo del software. I sistemi di guida autonoma degli aerei costano letteralmente migliaia di euro a riga di codice. E non sono comunque perfetti: infatti i piloti sono responsabili di ciascun volo. Ma sono responsabili perché hanno comunque il controllo dell'aereo e sono addestrati esplicitamente per il tipo di controllo che un sistema per lo più autonomo richiede.
Ma... anche solo la prescrizione andrebbe in contrasto con le oggettive esigenze di ricondurre esattamente
Non credo sia un valore la riconduzione "esatta": a volte ci possono essere dubbi, a volte ci possono essere più soggetti responsabili.
Se la riconduzione delle responsabilità non è esatta, non si finisce per punire innocenti e lasciare liberi colpevoli? Questo non significa che il responsabile debba essere uno solo, ma intuitivamente direi che i dubbi andrebbero dissolti. Questi sono aspetti positivi del sistema, non difetti.
Anche qui sarei d'accordo in linea di principio: la presenza di un giudice umano dovrebbe garantire la responsabilità del sistema. Ma diverse sentenze del passato (e diverse prescrizioni) mi fanno sembrare il sistema troppo fragile, facile da forzare con gli strumenti giusti. Il punto delle mie considerazioni sta nel capire se la complessità del software (ed in particolare la AI) non possa diventare ingestibile per il sistema della giustizia, attaccandone un tallone d'Achille e costituendo una perdita di sovranità netta ed una fonte di disuguaglianza davanti alla legge. E se così fosse, studiare un sistema per evitarlo prima che diventi uso comune. Giacomo
m.c.
le responsabilità a fronte di questa complessità...
O sbaglio?
Giacomo