Carissim*, mi piacerebbe leggere le vostre opinioni.. secondo voi, a chi dovrebbero essere in capo onori ed oneri di un prodotto da un AI-bot ? semplificando molto... di chi dovrebbe essere la responsabilita' se un oggetto (non algoritmico) genera incitamento all'odio razziale (ad esempio) ? (sia penale che civile; potrebbe ad esempio sbagliare una diagnosi) e di chi (if any) dovrebbe essere il diritto di sfruttamento se un oggetto genera un grande successo musicale ? (BTW, esiste un plagio, se il 'plagiatore' è un Ai-bot che ha imparato da se' 'guardando' Youtube ?) ciao, s.
Caro Stefano, le differenze sono tante; per cominciare tra USA e UE, tra gli stati membri UE, ecc. Come sai la Commissione Europea ha cominciato nel settembre 2016 il giro di consultazione per emendare la vecchia direttiva (anni Ottanta) sulla responsabilità da prodotto difettoso nell'era del machine learning. Allo stato, pensa a uno spettro. A un estremo, ci sono coloro che spingono per il mantenimento di un regime di responsabilità oggettiva (strict liability), variamente declinabile con la pericolosità del prodotto, o servizio, con la responsabilità vicaria di un datore di lavoro (se l'AI è proprio smart e intelligente: pensa a Vital, robot membro del consiglio di amministrazione della Deep Knowledge a Tokyo fin dal 2014), ecc. L'idea è che finché l'AI la fanno Google, Facebook, ecc., è bene (= sarebbe bene) che ne rispondano. Dall'altro estremo c'è chi pensa che, man mano che l'AI si democratizza e ciascuno di noi, oltre al computer, avrà molti robot ecc. a casa, bisognerà ripensare allo status quo. Ad esempio, negli USA c'è chi propone a forme limitate di responsabilità per chi (società, start ups, ecc.) conviene nel far certificare preventivamente i propri sistemi. Per quanto riguarda il diritto d'autore, il WIPO ne discute da tempo: in linea di massima - ma chiedo conferma a Marco Ricolfi - chi ha creato, usato o "comprato" in certi casi un sistema AI che inventa o crea qualche cosa (ammesso che l'idea stessa sia ammissibile per sistemi giuridici antropocentrici), ne sia proprietario. Alcuni colleghi propongono invece che queste scoperte e creazioni da parte dell'AI siano (= debbano essere) di per sė di pubblico dominio. In certe casi, dipende dal programma di cui parliamo: ad esempio, per "sintesi organiche" assistite tramite computer, screening e design computazione per farmaci, e via di questo passo. Negli USA, la discussione ruota attorno al 35 U.S.C. §§ 103 e 112 sul concetto di invenzione. E infine, per non annoiare, credo (anche se penso per ragioni diverse dalle tue) che avremo una nuova generazione di "reati robotici". Ne parlo da anni con Carlo Blengino. Ne ho parlato all'IJCAI 2017 a Melbourne. Ecco il video: https://www.youtube.com/watch?v=DfN6VXxl8Hs Ecco il paper: https://www.ijcai.org/proceedings/2017/3 Buon weekend a tutti, Ugo Il giorno 24 novembre 2017 10:02, Stefano Quintarelli < stefano@quintarelli.it> ha scritto:
Carissim*,
mi piacerebbe leggere le vostre opinioni..
secondo voi, a chi dovrebbero essere in capo onori ed oneri di un prodotto da un AI-bot ?
semplificando molto...
di chi dovrebbe essere la responsabilita' se un oggetto (non algoritmico) genera incitamento all'odio razziale (ad esempio) ? (sia penale che civile; potrebbe ad esempio sbagliare una diagnosi)
e di chi (if any) dovrebbe essere il diritto di sfruttamento se un oggetto genera un grande successo musicale ? (BTW, esiste un plagio, se il 'plagiatore' è un Ai-bot che ha imparato da se' 'guardando' Youtube ?)
ciao, s. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
*** Grazie per l’ottimo spunto! Il riferimento a Vital mi fa venire in mente il libro che ho appena letto, che pure lo menziona parlando di AI (a p. 489). Si tratta del libro dello storico israeliano Yuval Noah Harari : dopo il best seller mondiale “Sapiens .Da animali a dei”, ora è uscito con il visionario sequel “Homo Deus. Breve storia del futuro”, Bompiani, 2017, ove appunto il cenno allo strano consigliere di amministrazione di Deep Knowledge Ventures. buon fine settimana Lorenzo Albertini Da: nexa [mailto:nexa-bounces@server-nexa.polito.it] Per conto di Ugo Pagallo Inviato: venerdì 24 novembre 2017 19:28 A: Stefano Quintarelli <stefano@quintarelli.it> Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] diritti e responsabilita' AI Caro Stefano, le differenze sono tante; per cominciare tra USA e UE, tra gli stati membri UE, ecc. Come sai la Commissione Europea ha cominciato nel settembre 2016 il giro di consultazione per emendare la vecchia direttiva (anni Ottanta) sulla responsabilità da prodotto difettoso nell'era del machine learning. Allo stato, pensa a uno spettro. A un estremo, ci sono coloro che spingono per il mantenimento di un regime di responsabilità oggettiva (strict liability), variamente declinabile con la pericolosità del prodotto, o servizio, con la responsabilità vicaria di un datore di lavoro (se l'AI è proprio smart e intelligente: pensa a Vital, robot membro del consiglio di amministrazione della Deep Knowledge a Tokyo fin dal 2014), ecc. L'idea è che finché l'AI la fanno Google, Facebook, ecc., è bene (= sarebbe bene) che ne rispondano. Dall'altro estremo c'è chi pensa che, man mano che l'AI si democratizza e ciascuno di noi, oltre al computer, avrà molti robot ecc. a casa, bisognerà ripensare allo status quo. Ad esempio, negli USA c'è chi propone a forme limitate di responsabilità per chi (società, start ups, ecc.) conviene nel far certificare preventivamente i propri sistemi. Per quanto riguarda il diritto d'autore, il WIPO ne discute da tempo: in linea di massima - ma chiedo conferma a Marco Ricolfi - chi ha creato, usato o "comprato" in certi casi un sistema AI che inventa o crea qualche cosa (ammesso che l'idea stessa sia ammissibile per sistemi giuridici antropocentrici), ne sia proprietario. Alcuni colleghi propongono invece che queste scoperte e creazioni da parte dell'AI siano (= debbano essere) di per sė di pubblico dominio. In certe casi, dipende dal programma di cui parliamo: ad esempio, per "sintesi organiche" assistite tramite computer, screening e design computazione per farmaci, e via di questo passo. Negli USA, la discussione ruota attorno al 35 U.S.C. §§ 103 e 112 sul concetto di invenzione. E infine, per non annoiare, credo (anche se penso per ragioni diverse dalle tue) che avremo una nuova generazione di "reati robotici". Ne parlo da anni con Carlo Blengino. Ne ho parlato all'IJCAI 2017 a Melbourne. Ecco il video: https://www.youtube.com/watch?v=DfN6VXxl8Hs Ecco il paper: https://www.ijcai.org/proceedings/2017/3 Buon weekend a tutti, Ugo Il giorno 24 novembre 2017 10:02, Stefano Quintarelli <stefano@quintarelli.it <mailto:stefano@quintarelli.it> > ha scritto: Carissim*, mi piacerebbe leggere le vostre opinioni.. secondo voi, a chi dovrebbero essere in capo onori ed oneri di un prodotto da un AI-bot ? semplificando molto... di chi dovrebbe essere la responsabilita' se un oggetto (non algoritmico) genera incitamento all'odio razziale (ad esempio) ? (sia penale che civile; potrebbe ad esempio sbagliare una diagnosi) e di chi (if any) dovrebbe essere il diritto di sfruttamento se un oggetto genera un grande successo musicale ? (BTW, esiste un plagio, se il 'plagiatore' è un Ai-bot che ha imparato da se' 'guardando' Youtube ?) ciao, s. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <http://www.avg.com/email-signature?utm_medium=email&utm_source=link&utm_camp...> Mail priva di virus. <http://www.avg.com/email-signature?utm_medium=email&utm_source=link&utm_camp...> www.avg.com
francamente, mi sembra che affermare che un software ha un posto in un CdA sia piu' una trovata di comunicazione che altro. essere membro di un CdA ha dei requisiti e delle implicazioni giuridiche specifiche per ciascuno dei partecipanti, non ne ha per un software. che poi, se siamo in 5 in un CdA, stabiliamo in un regolamento che le nostre decisioni di investimento sono prese considerando i nostri voti congiuntamente all'output di un foglio di excel, nulla ce lo vieta. ma questo non significa che "un foglio di excel ha un posto in un CdA" ne' tantomeno che excel o microsoft sono responsabili. BTW, pensandoci bene, se si dice che quel software (Validating investment tool for advancing life sciences) ha un posto in un Cda, allore posso affermare che excel ha sempre avuto un posto in tutti i CdA in cui sono stato. spesso piu' rilevante di quello di altri consiglieri... ciao, s. On 24/11/2017 20:27, lorenzo albertini wrote:
*** Grazie per l’ottimo spunto!
Il riferimento a Vital mi fa venire in mente il libro che ho appena letto, che pure lo menziona parlando di AI (a p. 489).
Si tratta del libro dello storico israeliano Yuval Noah Harari : dopo il best seller mondiale “Sapiens .Da animali a dei”, ora è uscito con il visionario / sequel/ “Homo Deus. Breve storia del futuro”, Bompiani, 2017, ove appunto il cenno allo strano consigliere di amministrazione di Deep Knowledge Ventures.
buon fine settimana
Lorenzo Albertini
*Da:*nexa [mailto:nexa-bounces@server-nexa.polito.it] *Per conto di *Ugo Pagallo *Inviato:* venerdì 24 novembre 2017 19:28 *A:* Stefano Quintarelli <stefano@quintarelli.it> *Cc:* nexa@server-nexa.polito.it *Oggetto:* Re: [nexa] diritti e responsabilita' AI
Caro Stefano,
le differenze sono tante; per cominciare tra USA e UE, tra gli stati membri UE, ecc.
Come sai la Commissione Europea ha cominciato nel settembre 2016 il giro di consultazione per emendare la vecchia direttiva (anni Ottanta) sulla responsabilità da prodotto difettoso nell'era del machine learning.
Allo stato, pensa a uno spettro. A un estremo, ci sono coloro che spingono per il mantenimento di un regime di responsabilità oggettiva (strict liability), variamente declinabile con la pericolosità del prodotto, o servizio, con la responsabilità vicaria di un datore di lavoro (se l'AI è proprio smart e intelligente: pensa a Vital, robot membro del consiglio di amministrazione della Deep Knowledge a Tokyo fin dal 2014), ecc. L'idea è che finché l'AI la fanno Google, Facebook, ecc., è bene (= sarebbe bene) che ne rispondano.
Dall'altro estremo c'è chi pensa che, man mano che l'AI si democratizza e ciascuno di noi, oltre al computer, avrà molti robot ecc. a casa, bisognerà ripensare allo status quo. Ad esempio, negli USA c'è chi propone a forme limitate di responsabilità per chi (società, start ups, ecc.) conviene nel far certificare preventivamente i propri sistemi.
Per quanto riguarda il diritto d'autore, il WIPO ne discute da tempo: in linea di massima - ma chiedo conferma a Marco Ricolfi - chi ha creato, usato o "comprato" in certi casi un sistema AI che inventa o crea qualche cosa (ammesso che l'idea stessa sia ammissibile per sistemi giuridici antropocentrici), ne sia proprietario. Alcuni colleghi propongono invece che queste scoperte e creazioni da parte dell'AI siano (= debbano essere) di per sė di pubblico dominio. In certe casi, dipende dal programma di cui parliamo: ad esempio, per "sintesi organiche" assistite tramite computer, screening e design computazione per farmaci, e via di questo passo. Negli USA, la discussione ruota attorno al 35 U.S.C. §§ 103 e 112 sul concetto di invenzione.
E infine, per non annoiare, credo (anche se penso per ragioni diverse dalle tue) che avremo una nuova generazione di "reati robotici". Ne parlo da anni con Carlo Blengino. Ne ho parlato all'IJCAI 2017 a Melbourne.
Ecco il video: https://www.youtube.com/watch?v=DfN6VXxl8Hs
Ecco il paper: https://www.ijcai.org/proceedings/2017/3
Buon weekend a tutti,
Ugo
Il giorno 24 novembre 2017 10:02, Stefano Quintarelli <stefano@quintarelli.it <mailto:stefano@quintarelli.it>> ha scritto:
Carissim*,
mi piacerebbe leggere le vostre opinioni..
secondo voi, a chi dovrebbero essere in capo onori ed oneri di un prodotto da un AI-bot ?
semplificando molto...
di chi dovrebbe essere la responsabilita' se un oggetto (non algoritmico) genera incitamento all'odio razziale (ad esempio) ? (sia penale che civile; potrebbe ad esempio sbagliare una diagnosi)
e di chi (if any) dovrebbe essere il diritto di sfruttamento se un oggetto genera un grande successo musicale ? (BTW, esiste un plagio, se il 'plagiatore' è un Ai-bot che ha imparato da se' 'guardando' Youtube ?)
ciao, s. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
<http://www.avg.com/email-signature?utm_medium=email&utm_source=link&utm_camp...>
Mail priva di virus. www.avg.com <http://www.avg.com/email-signature?utm_medium=email&utm_source=link&utm_camp...>
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Stefano, sul fatto che un sistema esperto manchi "dei requisiti e delle implicazioni giuridiche specifiche" nel diritto societario giapponese, andrei cauto. Partirei leggendo Fumio Shimpo, *Japan’s Role in Establishing Standards for Artificial Intelligence Development*, The Carnegie Endowment for International Peace on Artificial Intelligence (AI) Development and Alliance Engagement (January 2017). Ma anche negli USA non scherzano: prova a leggere https://papers.ssrn.com/sol3/Papers.cfm?abstract_id=2758222. Peraltro, Shawn avrebbe già registrato una società robotica (cioè senza umani nel board) nel Delaware (ok è il Delaware, ma è un interessante trovata!) Dopo di che sai bene che, nel febbraio 2017, il Parlamento europeo ha approvato una risoluzione in cui "propone" forme di personalità giuridica per certi sistemi intelligenti. Dulcis in fundo, il 26 ottobre scorso, Sophia è stato il primo robot cui uno stato sovrano, l'Arabia Saudita, ha concesso la cittadinanza: http://losangeles.cbslocal.com/2017/10/26/robot-granted-citizenship/ Senza entrare nel merito delle varie opzioni, scelte e finanche trovate, come vedi, il futuro è adesso. Cheers u. Il giorno 25 novembre 2017 10:15, Stefano Quintarelli < stefano@quintarelli.it> ha scritto:
francamente, mi sembra che affermare che un software ha un posto in un CdA sia piu' una trovata di comunicazione che altro.
essere membro di un CdA ha dei requisiti e delle implicazioni giuridiche specifiche per ciascuno dei partecipanti, non ne ha per un software.
che poi, se siamo in 5 in un CdA, stabiliamo in un regolamento che le nostre decisioni di investimento sono prese considerando i nostri voti congiuntamente all'output di un foglio di excel, nulla ce lo vieta.
ma questo non significa che "un foglio di excel ha un posto in un CdA" ne' tantomeno che excel o microsoft sono responsabili.
BTW, pensandoci bene, se si dice che quel software (Validating investment tool for advancing life sciences) ha un posto in un Cda, allore posso affermare che excel ha sempre avuto un posto in tutti i CdA in cui sono stato. spesso piu' rilevante di quello di altri consiglieri...
ciao, s.
On 24/11/2017 20:27, lorenzo albertini wrote:
*** Grazie per l’ottimo spunto!
Il riferimento a Vital mi fa venire in mente il libro che ho appena letto, che pure lo menziona parlando di AI (a p. 489).
Si tratta del libro dello storico israeliano Yuval Noah Harari : dopo il best seller mondiale “Sapiens .Da animali a dei”, ora è uscito con il visionario / sequel/ “Homo Deus. Breve storia del futuro”, Bompiani, 2017, ove appunto il cenno allo strano consigliere di amministrazione di Deep Knowledge Ventures.
buon fine settimana
Lorenzo Albertini
*Da:*nexa [mailto:nexa-bounces@server-nexa.polito.it] *Per conto di *Ugo Pagallo *Inviato:* venerdì 24 novembre 2017 19:28 *A:* Stefano Quintarelli <stefano@quintarelli.it> *Cc:* nexa@server-nexa.polito.it *Oggetto:* Re: [nexa] diritti e responsabilita' AI
Caro Stefano,
le differenze sono tante; per cominciare tra USA e UE, tra gli stati membri UE, ecc.
Come sai la Commissione Europea ha cominciato nel settembre 2016 il giro di consultazione per emendare la vecchia direttiva (anni Ottanta) sulla responsabilità da prodotto difettoso nell'era del machine learning.
Allo stato, pensa a uno spettro. A un estremo, ci sono coloro che spingono per il mantenimento di un regime di responsabilità oggettiva (strict liability), variamente declinabile con la pericolosità del prodotto, o servizio, con la responsabilità vicaria di un datore di lavoro (se l'AI è proprio smart e intelligente: pensa a Vital, robot membro del consiglio di amministrazione della Deep Knowledge a Tokyo fin dal 2014), ecc. L'idea è che finché l'AI la fanno Google, Facebook, ecc., è bene (= sarebbe bene) che ne rispondano.
Dall'altro estremo c'è chi pensa che, man mano che l'AI si democratizza e ciascuno di noi, oltre al computer, avrà molti robot ecc. a casa, bisognerà ripensare allo status quo. Ad esempio, negli USA c'è chi propone a forme limitate di responsabilità per chi (società, start ups, ecc.) conviene nel far certificare preventivamente i propri sistemi.
Per quanto riguarda il diritto d'autore, il WIPO ne discute da tempo: in linea di massima - ma chiedo conferma a Marco Ricolfi - chi ha creato, usato o "comprato" in certi casi un sistema AI che inventa o crea qualche cosa (ammesso che l'idea stessa sia ammissibile per sistemi giuridici antropocentrici), ne sia proprietario. Alcuni colleghi propongono invece che queste scoperte e creazioni da parte dell'AI siano (= debbano essere) di per sė di pubblico dominio. In certe casi, dipende dal programma di cui parliamo: ad esempio, per "sintesi organiche" assistite tramite computer, screening e design computazione per farmaci, e via di questo passo. Negli USA, la discussione ruota attorno al 35 U.S.C. §§ 103 e 112 sul concetto di invenzione.
E infine, per non annoiare, credo (anche se penso per ragioni diverse dalle tue) che avremo una nuova generazione di "reati robotici". Ne parlo da anni con Carlo Blengino. Ne ho parlato all'IJCAI 2017 a Melbourne.
Ecco il video: https://www.youtube.com/watch?v=DfN6VXxl8Hs
Ecco il paper: https://www.ijcai.org/proceedings/2017/3
Buon weekend a tutti,
Ugo
Il giorno 24 novembre 2017 10:02, Stefano Quintarelli < stefano@quintarelli.it <mailto:stefano@quintarelli.it>> ha scritto:
Carissim*,
mi piacerebbe leggere le vostre opinioni..
secondo voi, a chi dovrebbero essere in capo onori ed oneri di un prodotto da un AI-bot ?
semplificando molto...
di chi dovrebbe essere la responsabilita' se un oggetto (non algoritmico) genera incitamento all'odio razziale (ad esempio) ? (sia penale che civile; potrebbe ad esempio sbagliare una diagnosi)
e di chi (if any) dovrebbe essere il diritto di sfruttamento se un oggetto genera un grande successo musicale ? (BTW, esiste un plagio, se il 'plagiatore' è un Ai-bot che ha imparato da se' 'guardando' Youtube ?)
ciao, s. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
<http://www.avg.com/email-signature?utm_medium=email&utm_ source=link&utm_campaign=sig-email&utm_content=emailclient>
Mail priva di virus. www.avg.com <http://www.avg.com/email-sign ature?utm_medium=email&utm_source=link&utm_campaign=sig- email&utm_content=emailclient>
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Ciao, speculazione interessante anche se ci allontana dal tema iniziale..
di chi dovrebbe essere la responsabilita' se un oggetto (non algoritmico) genera incitamento all'odio razziale (ad esempio) ? (sia penale che civile; potrebbe ad esempio sbagliare una diagnosi)
e di chi (if any) dovrebbe essere il diritto di sfruttamento se un oggetto genera un grande successo musicale ? (BTW, esiste un plagio, se il 'plagiatore' è un Ai-bot che ha imparato da se' 'guardando' Youtube ?)
il punto dove volevo arrivare e' la validita' del principio generale che cuis commoda eius et incommoda... BTW, l'azienda Deep Knowledge Ventures sta ad hong kong.. AFAIK, in Usa, come da noi, le persone giuridiche devono essere composte da persone fisiche o altre persone giuridiche. L'argomento di Bayern, da quanto capisco, si basa su una "crepa interpretativa" giuridica nelle LLC monopersonali (SRL monopoersonali) di alcuni stati per cui un socio di una LLC monopersonale si ritira dopo avere definito che tutte le decisioni operative sono determinate da un sistema e prevedendo che il suo rappresentante legale preveda un tempo estesissimo (migliaia di anni) prima di stabilire la chiusura della LLC. il bug e' che per la legge fino ad oggi era implicito che se non c'e' piu' un socio che prende le decisioni, l'operativita' dell'azienda si concluda e quindi sia il suo rappresentante legale a chiuderla. (tipo se il membro della llc muore e rimane il suo erede) questo, almeno, e' cio' che capisco io. se e' cosi', dubito che un giudice possa considerare sostenibile una tale posizione, dato che in tutte le norme che si riferiscono alle LLC c'e' sempre la previsione dell'esistenza di un membro, cosa che un giudice non potrebbe ignorare. in any case, l'operazione di bayer e' una speculazione che prescinde dall'AI. la stessa cosa si potrebbe fare con un foglio di excel.. allo stesso modo, se io fossi il monarca di quintaland, darei volentieri la cittadinanza al mio foglio excel, per finire su tutti i giornali, prima di spegnerlo e metterlo in un sottoscala. bisogna riconoscere che e' stata una bella operazione di marketing che ha colpito molti giornalisti. avessero definito un quadro giuridico per assegnare la cittadinanza saudita ad un sistema, non sarebbe stato cosi' sexy ma certo, quello si, rivoluzionario.. pero' mi hai dato una idea... :-) ciao!, s. On 25/11/2017 11:49, Ugo Pagallo wrote:
Stefano,
sul fatto che un sistema esperto manchi "dei requisiti e delle implicazioni giuridiche specifiche" nel diritto societario giapponese, andrei cauto. Partirei leggendo Fumio Shimpo, /Japan’s Role in Establishing Standards for Artificial Intelligence Development/, The Carnegie Endowment for International Peace on Artificial Intelligence (AI) Development and Alliance Engagement (January 2017). Ma anche negli USA non scherzano: prova a leggere https://papers.ssrn.com/sol3/Papers.cfm?abstract_id=2758222. Peraltro, Shawn avrebbe già registrato una società robotica (cioè senza umani nel board) nel Delaware (ok è il Delaware, ma è un interessante trovata!) Dopo di che sai bene che, nel febbraio 2017, il Parlamento europeo ha approvato una risoluzione in cui "propone" forme di personalità giuridica per certi sistemi intelligenti. Dulcis in fundo, il 26 ottobre scorso, Sophia è stato il primo robot cui uno stato sovrano, l'Arabia Saudita, ha concesso la cittadinanza: http://losangeles.cbslocal.com/2017/10/26/robot-granted-citizenship/ Senza entrare nel merito delle varie opzioni, scelte e finanche trovate, come vedi, il futuro è adesso. Cheers u.
Il giorno 25 novembre 2017 10:15, Stefano Quintarelli <stefano@quintarelli.it <mailto:stefano@quintarelli.it>> ha scritto:
francamente, mi sembra che affermare che un software ha un posto in un CdA sia piu' una trovata di comunicazione che altro.
essere membro di un CdA ha dei requisiti e delle implicazioni giuridiche specifiche per ciascuno dei partecipanti, non ne ha per un software.
che poi, se siamo in 5 in un CdA, stabiliamo in un regolamento che le nostre decisioni di investimento sono prese considerando i nostri voti congiuntamente all'output di un foglio di excel, nulla ce lo vieta.
ma questo non significa che "un foglio di excel ha un posto in un CdA" ne' tantomeno che excel o microsoft sono responsabili.
BTW, pensandoci bene, se si dice che quel software (Validating investment tool for advancing life sciences) ha un posto in un Cda, allore posso affermare che excel ha sempre avuto un posto in tutti i CdA in cui sono stato. spesso piu' rilevante di quello di altri consiglieri...
ciao, s.
On 24/11/2017 20:27, lorenzo albertini wrote:
*** Grazie per l’ottimo spunto!
Il riferimento a Vital mi fa venire in mente il libro che ho appena letto, che pure lo menziona parlando di AI (a p. 489).
Si tratta del libro dello storico israeliano Yuval Noah Harari : dopo il best seller mondiale “Sapiens .Da animali a dei”, ora è uscito con il visionario / sequel/ “Homo Deus. Breve storia del futuro”, Bompiani, 2017, ove appunto il cenno allo strano consigliere di amministrazione di Deep Knowledge Ventures.
buon fine settimana
Lorenzo Albertini
*Da:*nexa [mailto:nexa-bounces@server-nexa.polito.it <mailto:nexa-bounces@server-nexa.polito.it>] *Per conto di *Ugo Pagallo *Inviato:* venerdì 24 novembre 2017 19:28 *A:* Stefano Quintarelli <stefano@quintarelli.it <mailto:stefano@quintarelli.it>> *Cc:* nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> *Oggetto:* Re: [nexa] diritti e responsabilita' AI
Caro Stefano,
le differenze sono tante; per cominciare tra USA e UE, tra gli stati membri UE, ecc.
Come sai la Commissione Europea ha cominciato nel settembre 2016 il giro di consultazione per emendare la vecchia direttiva (anni Ottanta) sulla responsabilità da prodotto difettoso nell'era del machine learning.
Allo stato, pensa a uno spettro. A un estremo, ci sono coloro che spingono per il mantenimento di un regime di responsabilità oggettiva (strict liability), variamente declinabile con la pericolosità del prodotto, o servizio, con la responsabilità vicaria di un datore di lavoro (se l'AI è proprio smart e intelligente: pensa a Vital, robot membro del consiglio di amministrazione della Deep Knowledge a Tokyo fin dal 2014), ecc. L'idea è che finché l'AI la fanno Google, Facebook, ecc., è bene (= sarebbe bene) che ne rispondano.
Dall'altro estremo c'è chi pensa che, man mano che l'AI si democratizza e ciascuno di noi, oltre al computer, avrà molti robot ecc. a casa, bisognerà ripensare allo status quo. Ad esempio, negli USA c'è chi propone a forme limitate di responsabilità per chi (società, start ups, ecc.) conviene nel far certificare preventivamente i propri sistemi.
Per quanto riguarda il diritto d'autore, il WIPO ne discute da tempo: in linea di massima - ma chiedo conferma a Marco Ricolfi - chi ha creato, usato o "comprato" in certi casi un sistema AI che inventa o crea qualche cosa (ammesso che l'idea stessa sia ammissibile per sistemi giuridici antropocentrici), ne sia proprietario. Alcuni colleghi propongono invece che queste scoperte e creazioni da parte dell'AI siano (= debbano essere) di per sė di pubblico dominio. In certe casi, dipende dal programma di cui parliamo: ad esempio, per "sintesi organiche" assistite tramite computer, screening e design computazione per farmaci, e via di questo passo. Negli USA, la discussione ruota attorno al 35 U.S.C. §§ 103 e 112 sul concetto di invenzione.
E infine, per non annoiare, credo (anche se penso per ragioni diverse dalle tue) che avremo una nuova generazione di "reati robotici". Ne parlo da anni con Carlo Blengino. Ne ho parlato all'IJCAI 2017 a Melbourne.
Ecco il video: https://www.youtube.com/watch?v=DfN6VXxl8Hs <https://www.youtube.com/watch?v=DfN6VXxl8Hs>
Ecco il paper: https://www.ijcai.org/proceedings/2017/3 <https://www.ijcai.org/proceedings/2017/3>
Buon weekend a tutti,
Ugo
Il giorno 24 novembre 2017 10:02, Stefano Quintarelli <stefano@quintarelli.it <mailto:stefano@quintarelli.it> <mailto:stefano@quintarelli.it <mailto:stefano@quintarelli.it>>> ha scritto:
Carissim*,
mi piacerebbe leggere le vostre opinioni..
secondo voi, a chi dovrebbero essere in capo onori ed oneri di un prodotto da un AI-bot ?
semplificando molto...
di chi dovrebbe essere la responsabilita' se un oggetto (non algoritmico) genera incitamento all'odio razziale (ad esempio) ? (sia penale che civile; potrebbe ad esempio sbagliare una diagnosi)
e di chi (if any) dovrebbe essere il diritto di sfruttamento se un oggetto genera un grande successo musicale ? (BTW, esiste un plagio, se il 'plagiatore' è un Ai-bot che ha imparato da se' 'guardando' Youtube ?)
ciao, s. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> <mailto:nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>
<http://www.avg.com/email-signature?utm_medium=email&utm_source=link&utm_camp... <http://www.avg.com/email-signature?utm_medium=email&utm_source=link&utm_campaign=sig-email&utm_content=emailclient>>
Mail priva di virus. www.avg.com <http://www.avg.com> <http://www.avg.com/email-signature?utm_medium=email&utm_source=link&utm_camp... <http://www.avg.com/email-signature?utm_medium=email&utm_source=link&utm_campaign=sig-email&utm_content=emailclient>>
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>
A Ethicomp ho fatto alcune domande a Bayern: non serve nemmeno un foglio excel, può bastare termostato. E se ho capito bene, una volta che l'umano si ritira dalle prime due società, altre possono essere create solo dalle AI rimaste nelle prime due. In Googlepolis ci saranno swarm di società: ogni automobile o scaldabagno fa società a sé. Il sistema che consente la registrazione delle società è pilotato da una AI, per cui se ne creano anche 20.000 al secondo. :-) Alberto On 25/11/2017 12:48, Stefano Quintarelli wrote:
Ciao,
speculazione interessante anche se ci allontana dal tema iniziale..
di chi dovrebbe essere la responsabilita' se un oggetto (non algoritmico) genera incitamento all'odio razziale (ad esempio) ? (sia penale che civile; potrebbe ad esempio sbagliare una diagnosi)
e di chi (if any) dovrebbe essere il diritto di sfruttamento se un oggetto genera un grande successo musicale ? (BTW, esiste un plagio, se il 'plagiatore' è un Ai-bot che ha imparato da se' 'guardando' Youtube ?)
il punto dove volevo arrivare e' la validita' del principio generale che cuis commoda eius et incommoda...
BTW, l'azienda Deep Knowledge Ventures sta ad hong kong..
AFAIK, in Usa, come da noi, le persone giuridiche devono essere composte da persone fisiche o altre persone giuridiche.
L'argomento di Bayern, da quanto capisco, si basa su una "crepa interpretativa" giuridica nelle LLC monopersonali (SRL monopoersonali) di alcuni stati per cui un socio di una LLC monopersonale si ritira dopo avere definito che tutte le decisioni operative sono determinate da un sistema e prevedendo che il suo rappresentante legale preveda un tempo estesissimo (migliaia di anni) prima di stabilire la chiusura della LLC.
il bug e' che per la legge fino ad oggi era implicito che se non c'e' piu' un socio che prende le decisioni, l'operativita' dell'azienda si concluda e quindi sia il suo rappresentante legale a chiuderla. (tipo se il membro della llc muore e rimane il suo erede)
questo, almeno, e' cio' che capisco io. se e' cosi', dubito che un giudice possa considerare sostenibile una tale posizione, dato che in tutte le norme che si riferiscono alle LLC c'e' sempre la previsione dell'esistenza di un membro, cosa che un giudice non potrebbe ignorare.
in any case, l'operazione di bayer e' una speculazione che prescinde dall'AI. la stessa cosa si potrebbe fare con un foglio di excel..
allo stesso modo, se io fossi il monarca di quintaland, darei volentieri la cittadinanza al mio foglio excel, per finire su tutti i giornali, prima di spegnerlo e metterlo in un sottoscala. bisogna riconoscere che e' stata una bella operazione di marketing che ha colpito molti giornalisti. avessero definito un quadro giuridico per assegnare la cittadinanza saudita ad un sistema, non sarebbe stato cosi' sexy ma certo, quello si, rivoluzionario..
pero' mi hai dato una idea... :-)
ciao!, s.
On 25/11/2017 11:49, Ugo Pagallo wrote:
Stefano,
sul fatto che un sistema esperto manchi "dei requisiti e delle implicazioni giuridiche specifiche" nel diritto societario giapponese, andrei cauto. Partirei leggendo Fumio Shimpo, /Japan’s Role in Establishing Standards for Artificial Intelligence Development/, The Carnegie Endowment for International Peace on Artificial Intelligence (AI) Development and Alliance Engagement (January 2017). Ma anche negli USA non scherzano: prova a leggere https://papers.ssrn.com/sol3/Papers.cfm?abstract_id=2758222. Peraltro, Shawn avrebbe già registrato una società robotica (cioè senza umani nel board) nel Delaware (ok è il Delaware, ma è un interessante trovata!) Dopo di che sai bene che, nel febbraio 2017, il Parlamento europeo ha approvato una risoluzione in cui "propone" forme di personalità giuridica per certi sistemi intelligenti. Dulcis in fundo, il 26 ottobre scorso, Sophia è stato il primo robot cui uno stato sovrano, l'Arabia Saudita, ha concesso la cittadinanza: http://losangeles.cbslocal.com/2017/10/26/robot-granted-citizenship/ Senza entrare nel merito delle varie opzioni, scelte e finanche trovate, come vedi, il futuro è adesso. Cheers u.
Il giorno 25 novembre 2017 10:15, Stefano Quintarelli <stefano@quintarelli.it <mailto:stefano@quintarelli.it>> ha scritto:
francamente, mi sembra che affermare che un software ha un posto in un CdA sia piu' una trovata di comunicazione che altro.
essere membro di un CdA ha dei requisiti e delle implicazioni giuridiche specifiche per ciascuno dei partecipanti, non ne ha per un software.
che poi, se siamo in 5 in un CdA, stabiliamo in un regolamento che le nostre decisioni di investimento sono prese considerando i nostri voti congiuntamente all'output di un foglio di excel, nulla ce lo vieta.
ma questo non significa che "un foglio di excel ha un posto in un CdA" ne' tantomeno che excel o microsoft sono responsabili.
BTW, pensandoci bene, se si dice che quel software (Validating investment tool for advancing life sciences) ha un posto in un Cda, allore posso affermare che excel ha sempre avuto un posto in tutti i CdA in cui sono stato. spesso piu' rilevante di quello di altri consiglieri...
ciao, s.
On 24/11/2017 20:27, lorenzo albertini wrote:
*** Grazie per l’ottimo spunto!
Il riferimento a Vital mi fa venire in mente il libro che ho appena letto, che pure lo menziona parlando di AI (a p. 489).
Si tratta del libro dello storico israeliano Yuval Noah Harari : dopo il best seller mondiale “Sapiens .Da animali a dei”, ora è uscito con il visionario / sequel/ “Homo Deus. Breve storia del futuro”, Bompiani, 2017, ove appunto il cenno allo strano consigliere di amministrazione di Deep Knowledge Ventures.
buon fine settimana
Lorenzo Albertini
*Da:*nexa [mailto:nexa-bounces@server-nexa.polito.it <mailto:nexa-bounces@server-nexa.polito.it>] *Per conto di *Ugo Pagallo *Inviato:* venerdì 24 novembre 2017 19:28 *A:* Stefano Quintarelli <stefano@quintarelli.it <mailto:stefano@quintarelli.it>> *Cc:* nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> *Oggetto:* Re: [nexa] diritti e responsabilita' AI
Caro Stefano,
le differenze sono tante; per cominciare tra USA e UE, tra gli stati membri UE, ecc.
Come sai la Commissione Europea ha cominciato nel settembre 2016 il giro di consultazione per emendare la vecchia direttiva (anni Ottanta) sulla responsabilità da prodotto difettoso nell'era del machine learning.
Allo stato, pensa a uno spettro. A un estremo, ci sono coloro che spingono per il mantenimento di un regime di responsabilità oggettiva (strict liability), variamente declinabile con la pericolosità del prodotto, o servizio, con la responsabilità vicaria di un datore di lavoro (se l'AI è proprio smart e intelligente: pensa a Vital, robot membro del consiglio di amministrazione della Deep Knowledge a Tokyo fin dal 2014), ecc. L'idea è che finché l'AI la fanno Google, Facebook, ecc., è bene (= sarebbe bene) che ne rispondano.
Dall'altro estremo c'è chi pensa che, man mano che l'AI si democratizza e ciascuno di noi, oltre al computer, avrà molti robot ecc. a casa, bisognerà ripensare allo status quo. Ad esempio, negli USA c'è chi propone a forme limitate di responsabilità per chi (società, start ups, ecc.) conviene nel far certificare preventivamente i propri sistemi.
Per quanto riguarda il diritto d'autore, il WIPO ne discute da tempo: in linea di massima - ma chiedo conferma a Marco Ricolfi - chi ha creato, usato o "comprato" in certi casi un sistema AI che inventa o crea qualche cosa (ammesso che l'idea stessa sia ammissibile per sistemi giuridici antropocentrici), ne sia proprietario. Alcuni colleghi propongono invece che queste scoperte e creazioni da parte dell'AI siano (= debbano essere) di per sė di pubblico dominio. In certe casi, dipende dal programma di cui parliamo: ad esempio, per "sintesi organiche" assistite tramite computer, screening e design computazione per farmaci, e via di questo passo. Negli USA, la discussione ruota attorno al 35 U.S.C. §§ 103 e 112 sul concetto di invenzione.
E infine, per non annoiare, credo (anche se penso per ragioni diverse dalle tue) che avremo una nuova generazione di "reati robotici". Ne parlo da anni con Carlo Blengino. Ne ho parlato all'IJCAI 2017 a Melbourne.
Ecco il video: https://www.youtube.com/watch?v=DfN6VXxl8Hs <https://www.youtube.com/watch?v=DfN6VXxl8Hs>
Ecco il paper: https://www.ijcai.org/proceedings/2017/3 <https://www.ijcai.org/proceedings/2017/3>
Buon weekend a tutti,
Ugo
Il giorno 24 novembre 2017 10:02, Stefano Quintarelli <stefano@quintarelli.it <mailto:stefano@quintarelli.it> <mailto:stefano@quintarelli.it <mailto:stefano@quintarelli.it>>> ha scritto:
Carissim*,
mi piacerebbe leggere le vostre opinioni..
secondo voi, a chi dovrebbero essere in capo onori ed oneri di un prodotto da un AI-bot ?
semplificando molto...
di chi dovrebbe essere la responsabilita' se un oggetto (non algoritmico) genera incitamento all'odio razziale (ad esempio) ? (sia penale che civile; potrebbe ad esempio sbagliare una diagnosi)
e di chi (if any) dovrebbe essere il diritto di sfruttamento se un oggetto genera un grande successo musicale ? (BTW, esiste un plagio, se il 'plagiatore' è un Ai-bot che ha imparato da se' 'guardando' Youtube ?)
ciao, s. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> <mailto:nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>
<http://www.avg.com/email-signature?utm_medium=email&utm_source=link&utm_camp... <http://www.avg.com/email-signature?utm_medium=email&utm_source=link&utm_campaign=sig-email&utm_content=emailclient>>
Mail priva di virus. www.avg.com <http://www.avg.com> <http://www.avg.com/email-signature?utm_medium=email&utm_source=link&utm_camp... <http://www.avg.com/email-signature?utm_medium=email&utm_source=link&utm_campaign=sig-email&utm_content=emailclient>>
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Scusate il ritardo. Il tema è stato esplorato già da tempo per i computer generated works. In linea di massima è chi predispone il mezzo che acquista il diritto. Però i. alla recente conferenza del Master in LL M del 23 ottobre 2017 Anna Ramalho ha detto giustamente che, in EU come USA, copyright scatta solo se l’opera è espressione della personalità di un autore che è un umano; quindi se questa traccia non si mantiene nell’opera niente protezione; ii. mia implicazione: il machine learning fa perdere la protezione? Iii. scendendo al campo dei brevetti molti (fra cui William Samore, Artificial Intelligence and the Patent System: Can a New Tool Render a Once Patentable Idea Obvious?) hanno argomentato persuasivamente che il ricorso generalizzato a tecniche come il genetic programming rendono ovvio oggi ciò che non sarebbe stato tale ieri; quindi iv. Potrebbe essere che machine learning e forme di ricerca con ausilio digitale diminuiscano il numero di creazioni proteggibili; v. in copyright è chi predispone la tecnologia che ha titolo; solo se vi è un contratto (anche di lavoro) il committente datore acquista; in patent è chi possiede i tools che si appropria del risultato, normalmente pagando gli operatori che li impiegano; vi. Tutto questo è molto in fieri, ma credo che valga in generale anche l’inverso: cuius commoda, eius et incommoda. Tornerò sull’argomento quando avessi le idee più chiare. M.r. Da: nexa [mailto:nexa-bounces@server-nexa.polito.it] Per conto di Ugo Pagallo Inviato: venerdì 24 novembre 2017 19:28 A: Stefano Quintarelli Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] diritti e responsabilita' AI Caro Stefano, le differenze sono tante; per cominciare tra USA e UE, tra gli stati membri UE, ecc. Come sai la Commissione Europea ha cominciato nel settembre 2016 il giro di consultazione per emendare la vecchia direttiva (anni Ottanta) sulla responsabilità da prodotto difettoso nell'era del machine learning. Allo stato, pensa a uno spettro. A un estremo, ci sono coloro che spingono per il mantenimento di un regime di responsabilità oggettiva (strict liability), variamente declinabile con la pericolosità del prodotto, o servizio, con la responsabilità vicaria di un datore di lavoro (se l'AI è proprio smart e intelligente: pensa a Vital, robot membro del consiglio di amministrazione della Deep Knowledge a Tokyo fin dal 2014), ecc. L'idea è che finché l'AI la fanno Google, Facebook, ecc., è bene (= sarebbe bene) che ne rispondano. Dall'altro estremo c'è chi pensa che, man mano che l'AI si democratizza e ciascuno di noi, oltre al computer, avrà molti robot ecc. a casa, bisognerà ripensare allo status quo. Ad esempio, negli USA c'è chi propone a forme limitate di responsabilità per chi (società, start ups, ecc.) conviene nel far certificare preventivamente i propri sistemi. Per quanto riguarda il diritto d'autore, il WIPO ne discute da tempo: in linea di massima - ma chiedo conferma a Marco Ricolfi - chi ha creato, usato o "comprato" in certi casi un sistema AI che inventa o crea qualche cosa (ammesso che l'idea stessa sia ammissibile per sistemi giuridici antropocentrici), ne sia proprietario. Alcuni colleghi propongono invece che queste scoperte e creazioni da parte dell'AI siano (= debbano essere) di per sė di pubblico dominio. In certe casi, dipende dal programma di cui parliamo: ad esempio, per "sintesi organiche" assistite tramite computer, screening e design computazione per farmaci, e via di questo passo. Negli USA, la discussione ruota attorno al 35 U.S.C. §§ 103 e 112 sul concetto di invenzione. E infine, per non annoiare, credo (anche se penso per ragioni diverse dalle tue) che avremo una nuova generazione di "reati robotici". Ne parlo da anni con Carlo Blengino. Ne ho parlato all'IJCAI 2017 a Melbourne. Ecco il video: https://www.youtube.com/watch?v=DfN6VXxl8Hs Ecco il paper: https://www.ijcai.org/proceedings/2017/3 Buon weekend a tutti, Ugo Il giorno 24 novembre 2017 10:02, Stefano Quintarelli <stefano@quintarelli.it<mailto:stefano@quintarelli.it>> ha scritto: Carissim*, mi piacerebbe leggere le vostre opinioni.. secondo voi, a chi dovrebbero essere in capo onori ed oneri di un prodotto da un AI-bot ? semplificando molto... di chi dovrebbe essere la responsabilita' se un oggetto (non algoritmico) genera incitamento all'odio razziale (ad esempio) ? (sia penale che civile; potrebbe ad esempio sbagliare una diagnosi) e di chi (if any) dovrebbe essere il diritto di sfruttamento se un oggetto genera un grande successo musicale ? (BTW, esiste un plagio, se il 'plagiatore' è un Ai-bot che ha imparato da se' 'guardando' Youtube ?) ciao, s. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
ciao Stefano, ciao a tutti, TL;DR, responsabilità totale nelle mani dell'utente purchè l'utente sia padrone di dati e algoritmi. Nel momento in cui non lo è, si segue la catena delle dipendenze, e la responsabilità va a chi controlla dati o algoritmi. Non so se ci sono riferimenti alla posizione che voglio esprimere, quindi non citerò fonti. Ma immagino che tutte le riflessioni si devono sviluppare dal presupposto di base per cui l'utente deve essere il responsabile finale se effettivamente non ci sono altri responsabili nella catena al quale imputare la colpa di un bias di partenza. Quindi, il tuo algoritmo ha generato un successo musicale? Immagino che l'algoritmo che ti è stato venduto sia stupido o sia pieno di bias, non importi davvero perchè tu ne sei responsabile di quello che ti sei programmato o di quello che stai usando se comprato da terzi. Tu usi un training set. Se questo è composto da 10k video differenti ed otteni un successo, ogni input ha controbuito ad uno 0.01% del tuo successo. (probabilmente risibile ai fini di un plagio) se invece hai fatto training set con tutti i dischi di elio e le storie tese, e solo con i loro, ci sarà da capire quanto il tuo prodotto può risultare diverso dagli originali e, fatto salvo per la componente creativa al quale il software ha contribuito, credo non sia difficile configurarlo come plagio. nel momento in cui puoi quantificare le fonti al quale ti sei ispirato, in modo più deterministico si può definire una percentuale accettabile di citazione ed una non accettabile che diventa copia. e per l'odio razziale idem: se io possiedo i mieo algoritmi e decido i miei training set, non potrò usare la complessità tecnologica come capro espiatorio per essere irresponsabile nella produzione di contenuti. se ho davvero il controllo sulla supply chain informativa. un saluto dal utopia dell'autodeterminazione digitale Claudio 2017-11-24 3:02 GMT-06:00 Stefano Quintarelli <stefano@quintarelli.it>:
Carissim*,
mi piacerebbe leggere le vostre opinioni..
secondo voi, a chi dovrebbero essere in capo onori ed oneri di un prodotto da un AI-bot ?
semplificando molto...
di chi dovrebbe essere la responsabilita' se un oggetto (non algoritmico) genera incitamento all'odio razziale (ad esempio) ? (sia penale che civile; potrebbe ad esempio sbagliare una diagnosi)
e di chi (if any) dovrebbe essere il diritto di sfruttamento se un oggetto genera un grande successo musicale ? (BTW, esiste un plagio, se il 'plagiatore' è un Ai-bot che ha imparato da se' 'guardando' Youtube ?)
ciao, s. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- Claudio Agosti, https://facebook.tracking.exposed - https://twitter.com/_vecna PGP mail: claudio﹫tracking・exposed - key here https://keybase.io/vecna
participants (6)
-
Alberto Cammozzo -
Claudio Agosti -
lorenzo albertini -
Marco Ricolfi -
Stefano Quintarelli -
Ugo Pagallo