On 12 Jan 2018, at 12:00, nexa-request@server-nexa.polito.it wrote:
In data giovedì 11 gennaio 2018 08:20:06 CET, Stefano Quintarelli ha scritto:
Certo, si potrebbe dire "vietato usare ciò che non è spiegabile", ma non è realistico. Forse una norma c'è già: l'art. 13, comma 2, lett. f e l'art. 14, comma 2, lett. g del GDPR obbligano il titolare che mette in atto processi decisionali automatizzati a fornire agli interessati "informazioni significative sulla logica utilizzata". IMHO presto i giudici dovranno valutare cosa implica questa norma se il titolare utilizza sistemi ad apprendimento automatico. m.c.
Questa è la strada che qualcuno pensa di precorrere per bloccare i sistemi di ML. Ma è una strada che non porta da nessuna parte, per diverse ragioni: - non si sono difficoltà a spiegare come funziona un sistema di ML - è abbastanza agevole produrre una spiegazione “comprensibile” del suo comportamento (citazione da Yan LeCun, uno dei pionieri del Deep Learning). C’è stato un panel a proposito all’ultima conferenza NIPS 2017. - i sistemi di ML forniscono soluzioni ottimali, nel senso che utilizzano una funzione di utilità per determinare la soluzione ottima, né più né meno dei sistemi che usiamo tutti i giorni: per esempio per calcolare il percorso stradale ottimale, per gestire la logistica, per ottimizzare un ciclo di produzione. - nessuno dei sistemi informatici che usiamo oggi può essere “spiegato” in modo convincente. È di questi giorni a vicenda della vulnerabilità Meltdown, che ha influenzato tutti i processori in uso dal oltre 10 anni. Qualcuno aveva chiesto e ottenuto spiegazioni? I sistemi informatici sono ormai troppo complessi per potere essere “spiegati”. - i sistemi di ML sono in grado di indicare il livello di accuratezza che riescono ad ottenere, spesso avvicinandosi al 98-99%. Altri sistemi, cosiddetti basati sulla conoscenza, non raggiungono nemmeno lontanamente questi livelli di accuratezza, né sono in grado di specificare la loro copertura dei problemi. - preferite usare uno strumento che vanta un'accuratezza del 98% e dice quali casi sa trattare, piuttosto che uno strumento che vanta un’accuratezza del 60% e non si sa quali casi tratta? — Beppe