Scusate il ritardo. Il tema è stato esplorato già da tempo per i computer generated works. In linea di massima è chi predispone il mezzo che acquista il diritto. Però i. alla recente conferenza del Master in LL M del 23 ottobre 2017 Anna Ramalho ha detto giustamente che, in EU come USA, copyright scatta solo se l’opera è espressione della personalità di un autore che è un umano; quindi se questa traccia non si mantiene nell’opera niente protezione; ii. mia implicazione: il machine learning fa perdere la protezione? Iii. scendendo al campo dei brevetti molti (fra cui William Samore, Artificial Intelligence and the Patent System: Can a New Tool Render a Once Patentable Idea Obvious?) hanno argomentato persuasivamente che il ricorso generalizzato a tecniche come il genetic programming rendono ovvio oggi ciò che non sarebbe stato tale ieri; quindi iv. Potrebbe essere che machine learning e forme di ricerca con ausilio digitale diminuiscano il numero di creazioni proteggibili; v. in copyright è chi predispone la tecnologia che ha titolo; solo se vi è un contratto (anche di lavoro) il committente datore acquista; in patent è chi possiede i tools che si appropria del risultato, normalmente pagando gli operatori che li impiegano; vi. Tutto questo è molto in fieri, ma credo che valga in generale anche l’inverso: cuius commoda, eius et incommoda. Tornerò sull’argomento quando avessi le idee più chiare. M.r.

 

Da: nexa [mailto:nexa-bounces@server-nexa.polito.it] Per conto di Ugo Pagallo
Inviato: venerdì 24 novembre 2017 19:28
A: Stefano Quintarelli
Cc: nexa@server-nexa.polito.it
Oggetto: Re: [nexa] diritti e responsabilita' AI

 

Caro Stefano,

 

le differenze sono tante; per cominciare tra USA e UE, tra gli stati membri UE, ecc.

Come sai la Commissione Europea ha cominciato nel settembre 2016 il giro di consultazione per emendare la vecchia direttiva (anni Ottanta) sulla responsabilità da prodotto difettoso nell'era del machine learning.

Allo stato, pensa a uno spettro. A un estremo, ci sono coloro che spingono per il mantenimento di un regime di responsabilità oggettiva (strict liability), variamente declinabile con la pericolosità del prodotto, o servizio, con la responsabilità vicaria di un datore di lavoro (se l'AI è proprio smart e intelligente: pensa a Vital, robot membro del consiglio di amministrazione della Deep Knowledge a Tokyo fin dal 2014), ecc. L'idea è che finché l'AI la fanno Google, Facebook, ecc., è bene (= sarebbe bene) che ne rispondano.

Dall'altro estremo c'è chi pensa che, man mano che l'AI si democratizza e ciascuno di noi, oltre al computer, avrà molti robot ecc. a casa, bisognerà ripensare allo status quo. Ad esempio, negli USA c'è chi propone a forme limitate di responsabilità per chi (società, start ups, ecc.) conviene nel far certificare preventivamente i propri sistemi.

Per quanto riguarda il diritto d'autore, il WIPO ne discute da tempo: in linea di massima - ma chiedo conferma a Marco Ricolfi - chi ha creato, usato o "comprato" in certi casi un sistema AI che inventa o crea qualche cosa (ammesso che l'idea stessa sia ammissibile per sistemi giuridici antropocentrici), ne sia proprietario. Alcuni colleghi propongono invece che queste scoperte e creazioni da parte dell'AI siano (= debbano essere) di per sė di pubblico dominio. In certe casi, dipende dal programma di cui parliamo: ad esempio, per "sintesi organiche" assistite tramite computer, screening e design computazione per farmaci, e via di questo passo. Negli USA, la discussione ruota attorno al 35 U.S.C. §§ 103 e 112 sul concetto di invenzione.

E infine, per non annoiare, credo (anche se penso per ragioni diverse dalle tue) che avremo una nuova generazione di "reati robotici". Ne parlo da anni con Carlo Blengino. Ne ho parlato all'IJCAI 2017 a Melbourne.

Ecco il video: https://www.youtube.com/watch?v=DfN6VXxl8Hs

Ecco il paper: https://www.ijcai.org/proceedings/2017/3

Buon weekend a tutti,

Ugo

 

Il giorno 24 novembre 2017 10:02, Stefano Quintarelli <stefano@quintarelli.it> ha scritto:

Carissim*,

mi piacerebbe leggere le vostre opinioni..

secondo voi, a chi dovrebbero essere in capo onori ed oneri di un prodotto da un AI-bot ?

semplificando molto...

di chi dovrebbe essere la responsabilita' se un oggetto (non algoritmico) genera incitamento all'odio razziale (ad esempio) ?
(sia penale che civile; potrebbe ad esempio sbagliare una diagnosi)

e di chi (if any) dovrebbe essere il diritto di sfruttamento se un oggetto genera un grande successo musicale ?
(BTW, esiste un plagio, se il 'plagiatore' è un Ai-bot che ha imparato da se' 'guardando' Youtube ?)

ciao, s.
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa