Ciao Giacomo,
1. No no. Ci sono n casi in cui deep learning produce risultati inspiegabili. Dalle scelte nelle partite di Go, ad apprendimenti di una terza lingua mentre traduce tra altre due, alla progettazione di un radiatore dalle forma inimmaginabile da parte di qualsiasi
essere umano, altri esempi ancora. Il problema del DL, Unsupervised, e' che proprio produce risultati che possono non esser compresi. Scommetto una pizza che su un problema del carrello sofisticato potremmo avere sorprese.
2. Google ha fatto e consegnato alle autorita' dati da questo nr di miglia. NON e' possibile dire siano sufficienti, ma teniamo conto che un nuovo veicolo viene testato sui 600k km quindi 7 volte tanto appare un buon margine. Tieni inoltre conto che sempre
piu' test sono fatti in virtuale, quindi questi 4m miglia son proprio su interazione traffico. Banalmente, occorre stabilire un limite "di buon senso". Ti assicuro che ogni progettazione nuovo veicolo lascia aperte le porte a rischi, che semplicemente si considerano
accettabili
Best Regards
Rob Dolci
@aizoongroup
1-866-398-6567
From: Giacomo Tesio
Sent: Wednesday, March 28, 9:47 PM
Subject: Re: [nexa] Fwd: Machine-Learned Automated Decision Making Report and Panel in Brussels
To: Roberto Dolci
Cc: Pier Giorgio Chiara, Nexa
Ciao Pier Giorgio,
Ci sono learning supervised (sai quello che han fatto I tecnici ) ed unsupervised (sopprattutto nel caso deep learning non sai proprio cos’abbia e come abbia imparato la macchina).
Beh... se non lo vuoi sapere, di certo non lo saprai mai.
Sai non c'è peggior cieco di chi non vuol vedere...
Ma come dico sempre alle mie figlie dire "non si può fare" è l'unico modo certo per fallire.
Tuttavia, rispetto a quanto esponi, dobbiamo anche considerare che per nel caso deep learning non possiamo metter in strada un auto che non sia completamente testata. Detto questo, quanto una Google fa 4.000.000 di miglia, lo possiamo considerare sufficiente?
Dal punto di vista tecnico si.
Oh bella! :-D
E posso sapere esattamente come hai calcolato questa percorrenza minima?
Perchė sai, si fa in fretta a fare 4 milioni di miglia in pista.
E ancora più in fretta su un rullo...
Giacomo
Sent: Wednesday, March 28, 2018 12:20 PM
Subject: Re: [nexa] Fwd: Machine-Learned Automated Decision Making Report and Panel in Brussels
Buongiorno a tutti,
Sono un laureando in Giurisprudenza, attualmente a Londra: sto lavorando ad un paper che cerca di approfondire il tema della responsabilità civile (extra-contrattuale) correlato alla tematica del Machine Learning.
Sto riscontrando diverse criticità nel considerare ancora l'essere umano responsabile per il danno cagionato dal fully autonomous robot che abbia agito a seguito di 'apprendimento' (intervento di machine learning).
Trovo significativa la tesi di A. Mattias: configurandosi in tale situazione quello che lui chiama responsibility gap -conseguente alla mancanza dell'elemento 'controllo' dell'essere umano sull'oggetto, è necessario trovare nuovi paradigmi legali per
considerare il robot stesso responsabile, conferendo all'oggetto personalità giuridica.
Potrebbero essere adottati meccanismi assicurativi uniti a fictio giuridiche, come quella evocata da Bayern: creare strutture di diritto societario per conferire quella che lui definisce
legal housing per advanced software.
Sarei molto grato se qualcuno volesse suggerirmi ulteriori punti di vista, consentendomi di inquadrare meglio la responsabilità in esame.
Cordiali saluti,
PGC
Vi segnalo i seguente rapporto
che abbiamo prodotto congiuntamente tra Informatics Europe e ACM Europe Council
Veramente un ottimo testo, lucido, chiaro ed equilibrato.
Ne consiglio veramente la lettura a tutti!
Ne emerge chiaramente una sintesi fra competenze diverse ma radicate ed aperte al confronto.
L'unico contributo alla riflessione che posso offrire con il mio "Security Hat on", riguarda un piccolissimo passaggio che trovo rischioso:
When complex automated decision-making systems operate without human involvement, three conditions need to be satisfied: [...]
Traceability—the automated decision maker must be able to autonomously show the rationale for its decision using empirical, experimental or other evidence that rejects several other possible decisions in favour of the one chosen.
Interpretando questa definizione di tracciabilità come una specifica, mi troverei di fronte ad un albero di possibilità implementative, alcune delle quali in grado di soddisfare esattamente la specifica senza garantirne il razionale.
Macroscopicamente salta agli occhi che il sistema di decisione autonoma potrebbe generare, su richiesta, SOLO le soluzioni alternative alla decisione assunta che riesce a scartare attraverso evidenze empiriche e sperimentali compatibili con la legge.
Ovvero potrebbe essere programmato per NON generare decisioni alternative
migliori di quella assunta da un punto di vista etico o legale, per proteggere i propri costruttori dalla domanda "perché non ha fatto invece così?"
Questo potrebbe essere usato per scaricare sulla collettività il costo di trovare contro esempi.
Una soluzione logica a questo problema di specifica potrebbe essere quella di sostituire nella definizione la parola "several" con "every": il sistema autonomo stesso dovrebbe valutare (e fornire in caso di necessità)
tutte le possibili decisioni pertinenti al problema in essere.
Un'altra soluzione potrebbe essere lo sviluppo di strumenti in grado di analizzare e spiegare il processo decisionale (aka tool debug della intelligenza artificiale dimostrabilmente affidabili).
Si tratta comunque di muoversi lungo una linea di equilibrio: da un lato applicare all'uomo solo sistemi di ML spiegabili
(regressione lineare, k-mean clustering etc..) e dall'altro ideare e sviluppare nuovi tool di debug per aumentare le possibilità applicative degli altri sistemi.
Aspetto la riflessione sulla responsabilità legale nel software (e parteciperei volentieri ad essa).
E' un tema estremamente complesso da un punto di vista etico, legale e tecnico.
Il rischio è che il software libero venga usato come scudo retorico per far evaporare la responsabilità.
Come viene chiaramente spiegato nel testo, ci deve sempre essere almeno un essere umano a rispondere degli effetti delle decisioni basate sui calcoli di una macchina.
Stabilire chi è semplice nel caso della robotica: di un pilota automatico sviluppato come software libero risponde
chi lo ha montato a guida dell'hardware. Ma se il pilota automatico fosse proprietario?
Inoltre nel caso di un sistema completamente software che ad esempio suggerisca quali candidati ammettere ad un corso universitario a numero chiuso,
distribuire e ricondurre le responsabilità alle persone diventa molto più complesso.
Giacomo
_______________________________________________
nexa mailing list
--
PGC