Re: [nexa] Responsabilità legale e ML
Il giorno 29 marzo 2018 10:10, Pier Giorgio Chiara <pg.chiara94@gmail.com> ha scritto:
il fatto che sia estremamente costoso, come giustamente fai notare, non può essere considerato ostacolo decisivo all'attribuzione di una sorta di responsabilità oggettiva?
No. A meno che il denaro non valga più della vita umana. Si chiama *proprietà privata*. Se non ti puoi permettere una Ferrari, non la compri. Non puoi rubare i soldi degli altri (ovvero scaricare i costi sugli altri).
in fondo si richiederebbe uno sforzo probante che solo le aziende più grande -forse- sarebbero in grado di sostenere.
Francamente con la tecnologia attuale, non conosco nessuna azienda in grado di sostenere questo sforzo per una rete neurale discretamente complessa. NESSUNA. Le parole chiavi sono "tecnologia attuale" e "complessità". Su una rete neurale semplice, invece è possibile. E' una questione di equilibrio. Nota però che io non sto ancora parlando dell'aspetto probante. Il costo di cui stiamo parlando va assorbito PRIMA di immettere un prodotto pericoloso sul mercato.
Ciò non scoraggerebbe la ricerca?
AL CONTRARIO! La necessità di AI affidabili, spiegabili e prevedibili sta già lanciando grandi finanziamenti alla ricerca in questo senso. Le AI spiegabili (la cui spiegabilità al momento è ancora molto deludente) è un tema caldissimo della ricerca, letteralmente pieno di soldi. Perché le aziende che puntano sulla AI sono le prime a rendersi conto del castello di sabbia su cui stanno costruendo... E d'altro canto, ci sono SEMPRE altre soluzioni (magari hardware, magari software) per evitare incidenti. La spiegabilità della AI non può essere un dito dietro cui nascondersi per risparmiare denaro. Giacomo PS: aggiungo in copia la lista, perché la tua domanda è di nuovo chiara e pertinente (che è probabilmente il miglior complimento che si possa ricevere da un hacker! :-D).
participants (1)
-
Giacomo Tesio