Stefano,

sul fatto che un sistema esperto manchi "dei requisiti e delle implicazioni giuridiche specifiche" nel diritto societario giapponese, andrei cauto. Partirei leggendo Fumio Shimpo, Japan’s Role in Establishing Standards for Artificial Intelligence Development, The Carnegie Endowment for International Peace on Artificial Intelligence (AI) Development and Alliance Engagement (January 2017).
Ma anche negli USA non scherzano: prova a leggere https://papers.ssrn.com/sol3/Papers.cfm?abstract_id=2758222. Peraltro, Shawn avrebbe già registrato una società robotica (cioè senza umani nel board) nel Delaware (ok è il Delaware, ma è un interessante trovata!)
Dopo di che sai bene che, nel febbraio 2017, il Parlamento europeo ha approvato una risoluzione in cui "propone" forme di personalità giuridica per certi sistemi intelligenti.
Dulcis in fundo, il 26 ottobre scorso, Sophia è stato il primo robot cui uno stato sovrano, l'Arabia Saudita, ha concesso la cittadinanza: http://losangeles.cbslocal.com/2017/10/26/robot-granted-citizenship/
Senza entrare nel merito delle varie opzioni, scelte e finanche trovate, come vedi, il futuro è adesso. 
Cheers
u. 


 

Il giorno 25 novembre 2017 10:15, Stefano Quintarelli <stefano@quintarelli.it> ha scritto:
francamente, mi sembra che affermare che un software ha un posto in un CdA sia piu' una trovata di comunicazione che altro.

essere membro di un CdA ha dei requisiti e delle implicazioni giuridiche specifiche per ciascuno dei partecipanti, non ne ha per un software.

che poi, se siamo in 5 in un CdA, stabiliamo in un regolamento che le nostre decisioni di investimento sono prese considerando i nostri voti congiuntamente all'output di un foglio di excel, nulla ce lo vieta.

ma questo non significa che "un foglio di excel ha un posto in un CdA" ne' tantomeno che excel o microsoft sono responsabili.

BTW, pensandoci bene, se si dice che quel software (Validating investment tool for advancing life sciences) ha un posto in un Cda, allore posso affermare che excel ha sempre avuto un posto in tutti i CdA in cui sono stato. spesso piu' rilevante di quello di altri consiglieri...

ciao, s.


On 24/11/2017 20:27, lorenzo albertini wrote:
*** Grazie per l’ottimo spunto!

Il riferimento a Vital mi fa venire in mente il libro che ho appena letto, che pure lo menziona parlando di AI  (a p. 489).

Si tratta del libro dello storico israeliano Yuval Noah Harari : dopo il best seller mondiale “Sapiens .Da animali a dei”, ora è uscito con il visionario / sequel/  “Homo Deus. Breve storia del futuro”, Bompiani, 2017, ove appunto il cenno allo strano consigliere di amministrazione di Deep Knowledge Ventures.

buon fine settimana

Lorenzo Albertini

*Da:*nexa [mailto:nexa-bounces@server-nexa.polito.it] *Per conto di *Ugo Pagallo
*Inviato:* venerdì 24 novembre 2017 19:28
*A:* Stefano Quintarelli <stefano@quintarelli.it>
*Cc:* nexa@server-nexa.polito.it
*Oggetto:* Re: [nexa] diritti e responsabilita' AI

Caro Stefano,

le differenze sono tante; per cominciare tra USA e UE, tra gli stati membri UE, ecc.

Come sai la Commissione Europea ha cominciato nel settembre 2016 il giro di consultazione per emendare la vecchia direttiva (anni Ottanta) sulla responsabilità da prodotto difettoso nell'era del machine learning.

Allo stato, pensa a uno spettro. A un estremo, ci sono coloro che spingono per il mantenimento di un regime di responsabilità oggettiva (strict liability), variamente declinabile con la pericolosità del prodotto, o servizio, con la responsabilità vicaria di un datore di lavoro (se l'AI è proprio smart e intelligente: pensa a Vital, robot membro del consiglio di amministrazione della Deep Knowledge a Tokyo fin dal 2014), ecc. L'idea è che finché l'AI la fanno Google, Facebook, ecc., è bene (= sarebbe bene) che ne rispondano.

Dall'altro estremo c'è chi pensa che, man mano che l'AI si democratizza e ciascuno di noi, oltre al computer, avrà molti robot ecc. a casa, bisognerà ripensare allo status quo. Ad esempio, negli USA c'è chi propone a forme limitate di responsabilità per chi (società, start ups, ecc.) conviene nel far certificare preventivamente i propri sistemi.

Per quanto riguarda il diritto d'autore, il WIPO ne discute da tempo: in linea di massima - ma chiedo conferma a Marco Ricolfi - chi ha creato, usato o "comprato" in certi casi un sistema AI che inventa o crea qualche cosa (ammesso che l'idea stessa sia ammissibile per sistemi giuridici antropocentrici), ne sia proprietario. Alcuni colleghi propongono invece che queste scoperte e creazioni da parte dell'AI siano (= debbano essere) di per sė di pubblico dominio. In certe casi, dipende dal programma di cui parliamo: ad esempio, per "sintesi organiche" assistite tramite computer, screening e design computazione per farmaci, e via di questo passo. Negli USA, la discussione ruota attorno al 35 U.S.C. §§ 103 e 112 sul concetto di invenzione.

E infine, per non annoiare, credo (anche se penso per ragioni diverse dalle tue) che avremo una nuova generazione di "reati robotici". Ne parlo da anni con Carlo Blengino. Ne ho parlato all'IJCAI 2017 a Melbourne.

Ecco il video: https://www.youtube.com/watch?v=DfN6VXxl8Hs

Ecco il paper: https://www.ijcai.org/proceedings/2017/3

Buon weekend a tutti,

Ugo

Il giorno 24 novembre 2017 10:02, Stefano Quintarelli <stefano@quintarelli.it <mailto:stefano@quintarelli.it>> ha scritto:

    Carissim*,

    mi piacerebbe leggere le vostre opinioni..

    secondo voi, a chi dovrebbero essere in capo onori ed oneri di un
    prodotto da un AI-bot ?

    semplificando molto...

    di chi dovrebbe essere la responsabilita' se un oggetto (non
    algoritmico) genera incitamento all'odio razziale (ad esempio) ?
    (sia penale che civile; potrebbe ad esempio sbagliare una diagnosi)

    e di chi (if any) dovrebbe essere il diritto di sfruttamento se un
    oggetto genera un grande successo musicale ?
    (BTW, esiste un plagio, se il 'plagiatore' è un Ai-bot che ha
    imparato da se' 'guardando' Youtube ?)

    ciao, s.
    _______________________________________________
    nexa mailing list
    nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>
    https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

<http://www.avg.com/email-signature?utm_medium=email&utm_source=link&utm_campaign=sig-email&utm_content=emailclient>

       

Mail priva di virus. www.avg.com <http://www.avg.com/email-signature?utm_medium=email&utm_source=link&utm_campaign=sig-email&utm_content=emailclient>



_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa