Linux Foundation pushes open-source AI forward with the Deep Learning Foundation
Segnalo iniziativa della Linux Foundation http://www.zdnet.com/article/linux-foundation-pushes-open-source-ai-forward-... antonio v.
Grazie Antonio! Sarà importante ricordare sempre che la Linux Foundation è un consorzio di aziende che perseguono obbiettivi comuni, con sede a San Francisco. Non ha fini di lucro per sé stessa, ma questo non significa affatto che sia un ente filantropico. Semplicemente il suo ROI non viene misurato esclusivamente in termini economici. Legittimo che queste aziende si organizzino per le future campagne di marketing e lobbying relative alla AI, l'importante è che sia chiaro a tutti cosa fanno e che scopi hanno. Una cosa molto diversa dalla Free Software Foundation o dalla EFF. Inoltre teniamo a mente come disporre dei sorgenti non sia assolutamente sufficiente a garantire la trasparenza degli algoritmi di AI. È certamente condizione necessaria, ma non sufficiente. Sono necessari anche processi di build riproducibili (per garantire la coerenza degli eseguibili ai sorgenti dichiarati), documentazione aggiornata e soprattutto tutte le informazioni necessarie a riprodurre configurazione e calibrazione della AI con precisione. Non escludo che un legislatore accorto possa imporre l'utilizzo di eseguibili linkati staticamente alle librerie e regolamentare l'uso di linguaggi interpretati per evitare rimbalzi di responsabilità fra sistemisti e aziende produttrici. O potrebbe essere il mercato a far ritornare in auge queste tecniche, perché nessuno vuole ritrovarsi col cerino in mano. Infine diventa FONDAMENTALE stabilire al più presto come vadano ricondotte le responsabilità in caso di danni a terze persone (fisici o economici) derivanti dal utilizzo di questi software e di queste librerie liberamente disponibili. Non possiamo permettere che il software libero sostituisca l'attuale opacità delle reti neutrali nella pretesa di essere sollevati dalle responsabilità legali che caratterizza alcune fra le più potenti multinazionali del consorzio. Giacomo Il 03/Apr/2018 09:18, "Antonio Vetro'" <phisaz@gmail.com> ha scritto: Segnalo iniziativa della Linux Foundation http://www.zdnet.com/article/linux-foundation-pushes-open-source-ai-forward-... antonio v. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
In data martedì 3 aprile 2018 11:10:43 CEST, Giacomo Tesio ha scritto:
Infine diventa FONDAMENTALE stabilire al più presto come vadano ricondotte le responsabilità in caso di danni a terze persone (fisici o economici) derivanti dal utilizzo di questi software e di queste librerie liberamente disponibili. Non serve affannarsi a fare qualcosa di nuovo: alla luce del diritto vigente nei diversi paesi del mondo è agevole individuare chi risponde nelle diverse fattispecie. Non penso sia un difetto da correggere il fatto che la soluzione (in concreto) possa essere diversa a seconda della specifica fattispecie, del diritto applicabile, del giudice competente in astratto e dell'orientamento del giudice individuato in concreto. Mi rendo conto che è complicato, ma, va bene così: sono millenni che raffiniamo il sistema socio-tecnologico "giustizia". m.c.
Il Mar 3 Apr 2018 14:36 Marco Ciurcina <ciurcina@studiolegale.it> ha scritto:
In data martedì 3 aprile 2018 11:10:43 CEST, Giacomo Tesio ha scritto:
Infine diventa FONDAMENTALE stabilire al più presto come vadano ricondotte le responsabilità in caso di danni a terze persone (fisici o economici) derivanti dal utilizzo di questi software e di queste librerie liberamente disponibili. Non serve affannarsi a fare qualcosa di nuovo: alla luce del diritto vigente nei diversi paesi del mondo è agevole individuare chi risponde nelle diverse fattispecie. Non penso sia un difetto da correggere il fatto che la soluzione (in concreto) possa essere diversa a seconda della specifica fattispecie, del diritto applicabile, del giudice competente in astratto e dell'orientamento del giudice individuato in concreto. Mi rendo conto che è complicato, ma, va bene così: sono millenni che raffiniamo il sistema socio-tecnologico "giustizia". m.c.
Sono assolutamente d'accordo in linea di principio. Mi chiedo però che implicazioni pratiche abbia questo approccio. Temo infatti che l'umanità non abbia mai fatto i conti con la complessità del software odierno (in grandissima parte evitabile, ma non comunque presente). Parliamo di ordini e ordini di grandezza, semplicemente perché l'immaterialità del software libera i programmatori dalla stragrande maggioranza dei vincoli con cui qualsiasi altra disciplina ingegneristica fa i conti. Ti faccio i primi due esempi che mi vengono in mente: 1) una persona muore per un baco in una libreria open source utilizzata da un veicolo autonomo 2) una persona viene discriminata per un baco dovuto ad una interazione imprevista fra una libreria di sistema e un software durante la lettura di un input: un aggiornamento del sistema operativo alla data della discriminazione avrebbe evitato la discriminazione In entrambi i casi, il baco incriminato è un ago in un pagliaio enorme, con la massa del Monviso. Rinunciare a ricercarlo equivale ad incentivare l'utilizzo malevolo del informatica. Ma chi paga? Lo Stato? Ovvero la società attraverso le tasse? Per questo sostenevo che dovremmo assumere la colpevolezza fino a prova contraria, caricando sulla azienda l'onere di dimostrare la correttezza dei propri prodotti. E poi il sistemista che non ha aggiornato il sistema operativo potrebbe obiettare che il servizio di aggiornamento quel giorno non funzionava. E lo sviluppatore della libreria open source potrebbe obiettare che lui non ha avuto alcun controllo sull'inserimento del proprio codice nel sistema di guida del veicolo autonomo. È davvero tutto già previsto nella legislazione vigente? Se sì ne somo felice. Ma... anche solo la prescrizione andrebbe in contrasto con le oggettive esigenze di ricondurre esattamente le responsabilità a fronte di questa complessità... O sbaglio? Giacomo
In data martedì 3 aprile 2018 13:25:57 CEST, Giacomo Tesio ha scritto:
Sono assolutamente d'accordo in linea di principio.
Mi chiedo però che implicazioni pratiche abbia questo approccio. C'è un rischio da gestire. Ma, IMHO questo è un vantaggio, un'utile feature del sistema.
Temo infatti che l'umanità non abbia mai fatto i conti con la complessità del software odierno (in grandissima parte evitabile, ma non comunque presente). Parliamo di ordini e ordini di grandezza, semplicemente perché l'immaterialità del software libera i programmatori dalla stragrande maggioranza dei vincoli con cui qualsiasi altra disciplina ingegneristica fa i conti.
Ti faccio i primi due esempi che mi vengono in mente:
1) una persona muore per un baco in una libreria open source utilizzata da un veicolo autonomo
È certamente un problema del proprietario del veicolo. Forse anche di qualcun altro (dipende dalla fattispecie). Ma, in Italia, se il programmatore non ha agito con dolo o colpa grave, non penso ci possano essere problemi per lui.
2) una persona viene discriminata per un baco dovuto ad una interazione imprevista fra una libreria di sistema e un software durante la lettura di un input: un aggiornamento del sistema operativo alla data della discriminazione avrebbe evitato la discriminazione È certamente un problema di chi gestisce il sistema che fa correre quel sw. Forse anche di qualcun altro (dipende dalla fattispecie).
In entrambi i casi, il baco incriminato è un ago in un pagliaio enorme, con la massa del Monviso.
Se subisco un danno, cerco chi gestisce il pagliaio. Il problema di identificare l'ago è del gestore del pagliaio :-)
Rinunciare a ricercarlo equivale ad incentivare l'utilizzo malevolo del informatica.
Personalmente, penso che i bachi vadano cercati con attenzione. IMHO il regime di responsabilità vigente incentiva fortemente chi vuole usare del sw a farlo.
Ma chi paga? Lo Stato? Ovvero la società attraverso le tasse?
Paga chi causa un danno (il proprietario del veicolo, il fornitore del servizio che funziona con il sw, ecc.).
Per questo sostenevo che dovremmo assumere la colpevolezza fino a prova contraria, caricando sulla azienda l'onere di dimostrare la correttezza dei propri prodotti. Così è, in linea di principio.
E poi il sistemista che non ha aggiornato il sistema operativo potrebbe obiettare che il servizio di aggiornamento quel giorno non funzionava.
Questo rischio è un problema per chi fornisce il servizio.
E lo sviluppatore della libreria open source potrebbe obiettare che lui non ha avuto alcun controllo sull'inserimento del proprio codice nel sistema di guida del veicolo autonomo.
È davvero tutto già previsto nella legislazione vigente?
Se sì ne somo felice.
In linea di massima, si. Quando c'è un buco (raramente succede) ci pensano i giudici a colmare il vuoto normativo (anche questo fa parte del buon funzionamento della consolidata tecnologia "giustizia").
Ma... anche solo la prescrizione andrebbe in contrasto con le oggettive esigenze di ricondurre esattamente
Non credo sia un valore la riconduzione "esatta": a volte ci possono essere dubbi, a volte ci possono essere più soggetti responsabili. Questi sono aspetti positivi del sistema, non difetti. m.c.
le responsabilità a fronte di questa complessità...
O sbaglio?
Giacomo
Grazie della interessantissima risposta. Approfitto della tua competenza per chiederti alcuni chiarimenti. Il Mar 3 Apr 2018 19:17 Marco Ciurcina <ciurcina@studiolegale.it> ha scritto:
In data martedì 3 aprile 2018 13:25:57 CEST, Giacomo Tesio ha scritto:
1) una persona muore per un baco in una libreria open source utilizzata da un veicolo autonomo È certamente un problema del proprietario del veicolo.
Questo mi sorprende moltissimo, perché a meno che il proprietario non abbia realizzato in proprio il veicolo autonomo, non ha alcun controllo sullo stesso. Forse anche di qualcun altro (dipende dalla fattispecie).
Ma, in Italia, se il programmatore non ha agito con dolo o colpa grave, non penso ci possano essere problemi per lui.
Dolo no, ma bug ed errori di progettazione sono le uniche "colpe" che si possa ricondurre alla attività di programmazione. E francamente non saprei definirne un ordine di gravità.
In entrambi i casi, il baco incriminato è un ago in un pagliaio enorme,
con
la massa del Monviso. Se subisco un danno, cerco chi gestisce il pagliaio. Il problema di identificare l'ago è del gestore del pagliaio :-)
Assumendo onestà da parte del gestore del pagliaio la cosa funziona. Ma temo che il gestore abbia gioco facile a nascondere l'ago negando l'errore di calcolo che da origine alla discriminazione. Può letteralmente tirare fuori decine di bug che NON causano l'errore in questione solo per dimostrare al giudice la propria buona fede.
Rinunciare a ricercarlo equivale ad incentivare l'utilizzo malevolo del informatica.
Personalmente, penso che i bachi vadano cercati con attenzione. IMHO il regime di responsabilità vigente incentiva fortemente chi vuole usare del sw a farlo.
Chi usa il software non ha modo di "cercare" i bachi, o quanto meno può trovare solo quelli più evidenti. I bachi vanno evitati da chi produce il software. Il che aumenta esponenzialmente il costo del software. I sistemi di guida autonoma degli aerei costano letteralmente migliaia di euro a riga di codice. E non sono comunque perfetti: infatti i piloti sono responsabili di ciascun volo. Ma sono responsabili perché hanno comunque il controllo dell'aereo e sono addestrati esplicitamente per il tipo di controllo che un sistema per lo più autonomo richiede.
Ma... anche solo la prescrizione andrebbe in contrasto con le oggettive esigenze di ricondurre esattamente
Non credo sia un valore la riconduzione "esatta": a volte ci possono essere dubbi, a volte ci possono essere più soggetti responsabili.
Se la riconduzione delle responsabilità non è esatta, non si finisce per punire innocenti e lasciare liberi colpevoli? Questo non significa che il responsabile debba essere uno solo, ma intuitivamente direi che i dubbi andrebbero dissolti. Questi sono aspetti positivi del sistema, non difetti.
Anche qui sarei d'accordo in linea di principio: la presenza di un giudice umano dovrebbe garantire la responsabilità del sistema. Ma diverse sentenze del passato (e diverse prescrizioni) mi fanno sembrare il sistema troppo fragile, facile da forzare con gli strumenti giusti. Il punto delle mie considerazioni sta nel capire se la complessità del software (ed in particolare la AI) non possa diventare ingestibile per il sistema della giustizia, attaccandone un tallone d'Achille e costituendo una perdita di sovranità netta ed una fonte di disuguaglianza davanti alla legge. E se così fosse, studiare un sistema per evitarlo prima che diventi uso comune. Giacomo
m.c.
le responsabilità a fronte di questa complessità...
O sbaglio?
Giacomo
In data martedì 3 aprile 2018 18:26:39 CEST, Giacomo Tesio ha scritto:
Grazie della interessantissima risposta.
Approfitto della tua competenza per chiederti alcuni chiarimenti.
Il Mar 3 Apr 2018 19:17 Marco Ciurcina <ciurcina@studiolegale.it> ha
scritto:
In data martedì 3 aprile 2018 13:25:57 CEST, Giacomo Tesio ha scritto:
1) una persona muore per un baco in una libreria open source utilizzata
da
un veicolo autonomo
È certamente un problema del proprietario del veicolo.
Questo mi sorprende moltissimo, perché a meno che il proprietario non abbia realizzato in proprio il veicolo autonomo, non ha alcun controllo sullo stesso. In Italia, vedi l'art. 2054 c.c.
Forse anche di qualcun altro (dipende dalla fattispecie).
Ma, in Italia, se il programmatore non ha agito con dolo o colpa grave, non penso ci possano essere problemi per lui.
Dolo no, ma bug ed errori di progettazione sono le uniche "colpe" che si possa ricondurre alla attività di programmazione.
E francamente non saprei definirne un ordine di gravità.
Non ti preoccupare: ci pensa il giudice a "pesare" l'entità della gravità sulla base degli elementi probatori portati dalle parti.
In entrambi i casi, il baco incriminato è un ago in un pagliaio enorme,
con
la massa del Monviso.
Se subisco un danno, cerco chi gestisce il pagliaio. Il problema di identificare l'ago è del gestore del pagliaio
:-)
Assumendo onestà da parte del gestore del pagliaio la cosa funziona.
Ma temo che il gestore abbia gioco facile a nascondere l'ago negando l'errore di calcolo che da origine alla discriminazione.
Per le autovetture (ed altri casi, come per es. le attività pericolose ex art. 2050 cc) l'onere della prova è invertito: se il "gestore del pagliaio" non dimostra d'aver fatto tutto il possibile per evitare il danno, paga.
Può letteralmente tirare fuori decine di bug che NON causano l'errore in questione solo per dimostrare al giudice la propria buona fede.
Rinunciare a ricercarlo equivale ad incentivare l'utilizzo malevolo del informatica.
Personalmente, penso che i bachi vadano cercati con attenzione. IMHO il regime di responsabilità vigente incentiva fortemente chi vuole usare del sw a farlo.
Chi usa il software non ha modo di "cercare" i bachi, o quanto meno può trovare solo quelli più evidenti.
I bachi vanno evitati da chi produce il software. Il che aumenta esponenzialmente il costo del software.
I sistemi di guida autonoma degli aerei costano letteralmente migliaia di euro a riga di codice. E non sono comunque perfetti: infatti i piloti sono responsabili di ciascun volo. Ma sono responsabili perché hanno comunque il controllo dell'aereo e sono addestrati esplicitamente per il tipo di controllo che un sistema per lo più autonomo richiede.
Ma... anche solo la prescrizione andrebbe in contrasto con le oggettive esigenze di ricondurre esattamente
Non credo sia un valore la riconduzione "esatta": a volte ci possono essere dubbi, a volte ci possono essere più soggetti responsabili.
Se la riconduzione delle responsabilità non è esatta, non si finisce per punire innocenti e lasciare liberi colpevoli?
Succede, ma nella normalità dei casi non dipende dalla riconduzione delle responsabilità non esatta.
Questo non significa che il responsabile debba essere uno solo, ma intuitivamente direi che i dubbi andrebbero dissolti.
Questi sono aspetti positivi del sistema, non difetti.
Anche qui sarei d'accordo in linea di principio: la presenza di un giudice umano dovrebbe garantire la responsabilità del sistema.
Ma diverse sentenze del passato (e diverse prescrizioni) mi fanno sembrare il sistema troppo fragile, facile da forzare con gli strumenti giusti.
Il punto delle mie considerazioni sta nel capire se la complessità del software (ed in particolare la AI) non possa diventare ingestibile per il sistema della giustizia, attaccandone un tallone d'Achille e costituendo una perdita di sovranità netta ed una fonte di disuguaglianza davanti alla legge.
Lo vedremo solo vivendo. (io penso di no). m.c.
E se così fosse, studiare un sistema per evitarlo prima che diventi uso comune.
Giacomo
m.c.
le responsabilità a fronte di questa complessità...
O sbaglio?
Giacomo
participants (3)
-
Antonio Vetro' -
Giacomo Tesio -
Marco Ciurcina