Gent,me/mi segnalo news di interesse di questa mattina in materia di diritto di autore qualora non sia stato già condiviso in lista https://agcult.it/a/7023/2019-03-26/ue-approvate-le-nuove-regole-sul-diritto... Cordiali saluti Mauro Alovisio
On March 26, 2019 4:55:19 PM UTC, Mauro Alovisio <mauro.alovisio@gmail.com> wrote:
Gent,me/mi
segnalo news di interesse di questa mattina in materia di diritto di autore qualora non sia stato già condiviso in lista
https://agcult.it/a/7023/2019-03-26/ue-approvate-le-nuove-regole-sul-diritto...
Ciao, grazie della segnalazione. Su altri canali, da ore, regna l'indignazione. Io per una volta sono ottimista, perché un'azienda Europea ha già pronta la soluzione: https://www.olimex.com/Products/OLinuXino/Home-Server/Pioneer-FreedomBox-HSK... Speriamo che nessuno se la compri! L'azienda intendo. Una piccola perla in Bulgaria. I server domestici a 82 euro invece... andranno a ruba. Giacomo
-----Messaggio originale----- Da: nexa [mailto:nexa-bounces@server-nexa.polito.it] Per conto di Giacomo Inviato: martedì 26 marzo 2019 22:23 A: nexa@server-nexa.polito.it; Mauro Alovisio; nexa Oggetto: Re: [nexa] approvate le regole sul diritto di autore
On March 26, 2019 4:55:19 PM UTC, Mauro Alovisio <mauro.alovisio@gmail.com> wrote:
Gent,me/mi
segnalo news di interesse di questa mattina in materia di diritto di autore qualora non sia stato già condiviso in lista
https://agcult.it/a/7023/2019-03-26/ue-approvate-le-nuove-regole-sul-di ritto-d-autore-online
Ciao, grazie della segnalazione.
Su altri canali, da ore, regna l'indignazione.
Io per una volta sono ottimista, perché un'azienda Europea ha già pronta la soluzione: https://www.olimex.com/Products/OLinuXino/Home- Server/Pioneer-FreedomBox-HSK/
[****] di cosa si tratta, di preciso, e quali sarebbero le sue utilità (spiegato ai profani)? Grazie l.albertini
Speriamo che nessuno se la compri! L'azienda intendo. Una piccola perla in Bulgaria.
I server domestici a 82 euro invece... andranno a ruba.
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
--- Questa email è stata esaminata alla ricerca di virus da AVG. http://www.avg.com
On 27/03/2019, lorenzo albertini <lorenzoalbertini.vr@gmail.com> wrote:
-----Messaggio originale----- Io per una volta sono ottimista, perché un'azienda Europea ha già pronta la soluzione: https://www.olimex.com/Products/OLinuXino/Home-Server/Pioneer-FreedomBox-HSK...
[****] di cosa si tratta, di preciso, e quali sarebbero le sue utilità (spiegato ai profani)?
Si tratta di un piccolo server silenzioso e a basso consumo (fanless) che viene distribuito con FreedomBox preinstallato: https://wiki.debian.org/FreedomBox
FreedomBox is a 100% free software self-hosting web server to deploy social applications on small machines. It provides online communication tools respecting your privacy and data ownership. You can use FreedomBox at home to replace services provided by third-parties mining your life and using your content. Thanks to a very friendly interface, you will be able to deploy on demand applications focusing on confidentiality such as file sharing, shared calendaring, instant messaging, secure voice conference calling, blog and wiki.
Ci puoi fare moltissime cose (alla fin fine si tratta di server Debian GNU/Linux), ma l'interfaccia utente è progettata per rendere l'amministrazione di alcuni strumenti basilari alla portata di tutti: https://wiki.debian.org/FreedomBox/Features Per esempio ti puoi fare il tuo sito web esente da upload filter. Ci puoi gestire il calendario e i contatti senza condividerli con Google. Ci puoi installare un server di Chat con cui discutere con i tuoi amici senza condividere le vostre opinioni con Facebook. Ci puoi installare una VPN... etc etc... Se apri video con FreeTube https://youtu.be/WMxKUyHh04M dopo 7 minuti e 15 secondi inizia una demo del 2017 (da cui il progetto è evoluto parecchio). Non è l'unico progetto di questo tipo, https://freedombone.net/ e https://yunohost.org/ sono altri due progetti molto interessanti (forse persino più avanzati rispetto a FreedomBox), ma FreedomBox è il primo che viene venduto preinstallato su hardware open source. Purtroppo in poche ore è andato esaurito... ma visto il successo che ha avuto non dubito che ne vengano prodotti altri per soddisfare la domanda. Sarebbe bello vedere questo tipo di iniziative imprenditoriali effettivamente innovative fiorire in tutta Europa. Sarebbe splendido vederle fiorire in Italia! Ma... [CONTENT CENSORED BY UPLOAD FILTER :-D] Dovrebbe essere piuttosto chiaro come questo tipo di prodotti risponde ai rischi di censura posti dalla direttiva sul Copyright: il mio server personale è un mio elettrodomestico, non è un "service provider" in cui altri utenti possono caricare contenuti. Non è dunque soggetto ad upload filters che possano censurarli a priori. D'altro canto, una volta che questi piccoli server saranno nelle case, una volta che i ragazzi inizieranno a giocarci... ;-) Giacomo
Tra i migliori articoli che ho letto dopo il voto segnalo questi due: - Massimiliano Trovato: https://forbes.it/2018/09/12/riforma-copyright-diritto-autore-over-top/ - Guido Scorza: https://www.ilfattoquotidiano.it/2019/03/26/copyright-perche-i-veri-sconfitt... On Tue, Mar 26, 2019 at 05:55:19PM +0100, Mauro Alovisio wrote:
Gent,me/mi
segnalo news di interesse di questa mattina in materia di diritto di autore qualora non sia stato già condiviso in lista
https://agcult.it/a/7023/2019-03-26/ue-approvate-le-nuove-regole-sul-diritto...
Cordiali saluti Mauro Alovisio
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- Stefano Zacchiroli . zack@upsilon.cc . upsilon.cc/zack . . o . . . o . o Computer Science Professor . CTO Software Heritage . . . . . o . . . o o Former Debian Project Leader & OSI Board Director . . . o o o . . . o . « the first rule of tautology club is the first rule of tautology club »
sara' interessante leggere i commenti sul testo definitivo. ci sono tanti dettagli. On 27/03/2019 09:40, Stefano Zacchiroli wrote:
Tra i migliori articoli che ho letto dopo il voto segnalo questi due:
- Massimiliano Trovato: https://forbes.it/2018/09/12/riforma-copyright-diritto-autore-over-top/
- Guido Scorza: https://www.ilfattoquotidiano.it/2019/03/26/copyright-perche-i-veri-sconfitt...
On Tue, Mar 26, 2019 at 05:55:19PM +0100, Mauro Alovisio wrote:
Gent,me/mi
segnalo news di interesse di questa mattina in materia di diritto di autore qualora non sia stato già condiviso in lista
https://agcult.it/a/7023/2019-03-26/ue-approvate-le-nuove-regole-sul-diritto...
Cordiali saluti Mauro Alovisio
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- reserve your meeting with me at http://cal.quintarelli.it
On 27/03/2019, Stefano Quintarelli <stefano@quintarelli.it> wrote:
sara' interessante leggere i commenti sul testo definitivo. ci sono tanti dettagli.
Io sto leggendo il testo definitivo (da pagina 86) http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA... (Almeno credo sia questo: ho trovato almeno altre due versioni molto diverse su siti istituzionali) Giacomo
Un congegno utile, ma ovviamente se vuoi continuare a usare YouTube, Wikipedia, etc. non risolve il problema che queste piattaforme implementaranno l'upload filter. E non risolve ovviamente gli altri problemi relativi a data minining exception e publishers' right On Wed, 27 Mar 2019 at 13:59, Giacomo Tesio <giacomo@tesio.it> wrote:
On 27/03/2019, Stefano Quintarelli <stefano@quintarelli.it> wrote:
sara' interessante leggere i commenti sul testo definitivo. ci sono tanti dettagli.
Io sto leggendo il testo definitivo (da pagina 86)
http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA...
(Almeno credo sia questo: ho trovato almeno altre due versioni molto diverse su siti istituzionali)
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- Guido Guido Noto La Diega, PhD FHEA Senior Lecturer / European Research Partnerships Coordinator @ Northumbria Law School Director @italiot | Fellow @nexacenter | Co-convenor @NINSOrig | Co-founder @DPA2018 Northumbria Law School City Campus East, Newcastle upon Tyne NE1 8ST noto.la.diega@gmail.com +44(0)191 349 5562 You can access my papers on Academia.edu <http://northumbria.academia.edu/GuidoNotoLaDiega> and on the Social Science Research Network (SSRN <https://papers.ssrn.com/sol3/cf_dev/AbsByAuth.cfm?per_id=1794950>) This email and any attachment hereto are strictly confidential and are exclusively intended for the person above identified. Without the intended recipient’s entitlement, use, copy, and dissemination of this email are prohibited. If you have received it in error, please advise us immediately by telephone and return the documents received to the above address, deleting the files. Thank you. Unless necessary, please do not print this email.
On 27/03/2019, Guido Noto La Diega <noto.la.diega@gmail.com> wrote:
se vuoi continuare a usare YouTube
Appunto. _SE_ vuoi continuare ad usare YouTube. Francamente, nel 2019 non vedo molte ragioni per farlo. E d'altro canto, usare YouTube per condividere materiale coperto da copyright esclusivo di terze parti è un po'... "sciocco", diciamo. ;-)
Wikipedia
Wikipedia non è esplicitamente esentata attraverso la definizione 6 all'articolo 2?
etc. non risolve il problema che queste piattaforme implementaranno l'upload filter.
Al contrario, li risolve completamente e alla radice. Così come rimuove una valanga di altri problemi (ponendone di nuovi, ma questa volta molto più interessanti). Semplicemente, NON usi tali piattaforme per partecipare al dibattito pubblico cibernetico che avviene attraverso internet (e/o alla caciara).
E non risolve ovviamente gli altri problemi relativi a data minining exception e publishers' right
Non mi è chiaro cosa intendi. Puoi spiegarmi il tuo ragionamento? Per il data mining, immagino tu faccia riferimento agli articoli 3 e 4. Per i publisher rights immagino tu faccia riferimento all'articolo 15. In entrambi i casi non mi sembra si pongano problemi che possano minare la libertà di espressione individuale che un server ad uso domestico fornisce. Cosa mi sfugge? Giacomo PS: tu che sei del mestiere, è questo il testo approvato ieri http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA... ?
1. Sarebbe bello se smettessimo di usare YouTube, Facebook, etc., ma una serie di elementi suggeriscono che continueremo ad affidarci ai grandi intermediari (ad es. per questioni di effetti di rete). Quindi la tua soluzione non risolve il problema, a meno che non si trovi un serio incentivo per cambiare le abitudini di milioni di user. 2. Mi era sembrato che suggerissi che il server privato risolvesse tutti i problemi della direttiva copyright, mentre al piu' puo' contribuire a risolvere il problema dell'upload filter (art. 17, ex art. 13), ma non gli altri problemi posti dalla medesima direttiva 3. Wikipedia ha rimossio il banner 'Ad free forever', cosa succederebbe se per ragioni di sostenibilita' incominciasse a usare pubblicita'? 4. Il testo approvato e' questo http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA..., mi pare sia lo stesso che hai condiviso tu On Wed, 27 Mar 2019 at 14:59, Giacomo Tesio <giacomo@tesio.it> wrote:
On 27/03/2019, Guido Noto La Diega <noto.la.diega@gmail.com> wrote:
se vuoi continuare a usare YouTube
Appunto. _SE_ vuoi continuare ad usare YouTube.
Francamente, nel 2019 non vedo molte ragioni per farlo.
E d'altro canto, usare YouTube per condividere materiale coperto da copyright esclusivo di terze parti è un po'... "sciocco", diciamo. ;-)
Wikipedia
Wikipedia non è esplicitamente esentata attraverso la definizione 6 all'articolo 2?
etc. non risolve il problema che queste piattaforme implementaranno l'upload filter.
Al contrario, li risolve completamente e alla radice. Così come rimuove una valanga di altri problemi (ponendone di nuovi, ma questa volta molto più interessanti).
Semplicemente, NON usi tali piattaforme per partecipare al dibattito pubblico cibernetico che avviene attraverso internet (e/o alla caciara).
E non risolve ovviamente gli altri problemi relativi a data minining exception e publishers' right
Non mi è chiaro cosa intendi. Puoi spiegarmi il tuo ragionamento?
Per il data mining, immagino tu faccia riferimento agli articoli 3 e 4. Per i publisher rights immagino tu faccia riferimento all'articolo 15. In entrambi i casi non mi sembra si pongano problemi che possano minare la libertà di espressione individuale che un server ad uso domestico fornisce.
Cosa mi sfugge?
Giacomo PS: tu che sei del mestiere, è questo il testo approvato ieri
http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA... ?
-- Guido Guido Noto La Diega, PhD FHEA Senior Lecturer / European Research Partnerships Coordinator @ Northumbria Law School Director @italiot | Fellow @nexacenter | Co-convenor @NINSOrig | Co-founder @DPA2018 Northumbria Law School City Campus East, Newcastle upon Tyne NE1 8ST noto.la.diega@gmail.com +44(0)191 349 5562 You can access my papers on Academia.edu <http://northumbria.academia.edu/GuidoNotoLaDiega> and on the Social Science Research Network (SSRN <https://papers.ssrn.com/sol3/cf_dev/AbsByAuth.cfm?per_id=1794950>) This email and any attachment hereto are strictly confidential and are exclusively intended for the person above identified. Without the intended recipient’s entitlement, use, copy, and dissemination of this email are prohibited. If you have received it in error, please advise us immediately by telephone and return the documents received to the above address, deleting the files. Thank you. Unless necessary, please do not print this email.
Rossana Ducato e io ci stiamo chiedendo se si possa utilizzare il GDPR per neutralizzare l'upload filter, v. https://youtu.be/wDrTa8StNvY On Wed, 27 Mar 2019 at 18:19, Guido Noto La Diega <noto.la.diega@gmail.com> wrote:
1. Sarebbe bello se smettessimo di usare YouTube, Facebook, etc., ma una serie di elementi suggeriscono che continueremo ad affidarci ai grandi intermediari (ad es. per questioni di effetti di rete). Quindi la tua soluzione non risolve il problema, a meno che non si trovi un serio incentivo per cambiare le abitudini di milioni di user. 2. Mi era sembrato che suggerissi che il server privato risolvesse tutti i problemi della direttiva copyright, mentre al piu' puo' contribuire a risolvere il problema dell'upload filter (art. 17, ex art. 13), ma non gli altri problemi posti dalla medesima direttiva 3. Wikipedia ha rimossio il banner 'Ad free forever', cosa succederebbe se per ragioni di sostenibilita' incominciasse a usare pubblicita'? 4. Il testo approvato e' questo http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA..., mi pare sia lo stesso che hai condiviso tu
On Wed, 27 Mar 2019 at 14:59, Giacomo Tesio <giacomo@tesio.it> wrote:
On 27/03/2019, Guido Noto La Diega <noto.la.diega@gmail.com> wrote:
se vuoi continuare a usare YouTube
Appunto. _SE_ vuoi continuare ad usare YouTube.
Francamente, nel 2019 non vedo molte ragioni per farlo.
E d'altro canto, usare YouTube per condividere materiale coperto da copyright esclusivo di terze parti è un po'... "sciocco", diciamo. ;-)
Wikipedia
Wikipedia non è esplicitamente esentata attraverso la definizione 6 all'articolo 2?
etc. non risolve il problema che queste piattaforme implementaranno l'upload filter.
Al contrario, li risolve completamente e alla radice. Così come rimuove una valanga di altri problemi (ponendone di nuovi, ma questa volta molto più interessanti).
Semplicemente, NON usi tali piattaforme per partecipare al dibattito pubblico cibernetico che avviene attraverso internet (e/o alla caciara).
E non risolve ovviamente gli altri problemi relativi a data minining exception e publishers' right
Non mi è chiaro cosa intendi. Puoi spiegarmi il tuo ragionamento?
Per il data mining, immagino tu faccia riferimento agli articoli 3 e 4. Per i publisher rights immagino tu faccia riferimento all'articolo 15. In entrambi i casi non mi sembra si pongano problemi che possano minare la libertà di espressione individuale che un server ad uso domestico fornisce.
Cosa mi sfugge?
Giacomo PS: tu che sei del mestiere, è questo il testo approvato ieri
http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA... ?
-- Guido
Guido Noto La Diega, PhD FHEA Senior Lecturer / European Research Partnerships Coordinator @ Northumbria Law School Director @italiot | Fellow @nexacenter | Co-convenor @NINSOrig | Co-founder @DPA2018
Northumbria Law School City Campus East, Newcastle upon Tyne NE1 8ST
noto.la.diega@gmail.com
+44(0)191 349 5562
You can access my papers on Academia.edu <http://northumbria.academia.edu/GuidoNotoLaDiega> and on the Social Science Research Network (SSRN <https://papers.ssrn.com/sol3/cf_dev/AbsByAuth.cfm?per_id=1794950>)
This email and any attachment hereto are strictly confidential and are exclusively intended for the person above identified. Without the intended recipient’s entitlement, use, copy, and dissemination of this email are prohibited. If you have received it in error, please advise us immediately by telephone and return the documents received to the above address, deleting the files. Thank you.
Unless necessary, please do not print this email.
-- Guido Guido Noto La Diega, PhD FHEA Senior Lecturer / European Research Partnerships Coordinator @ Northumbria Law School Director @italiot | Fellow @nexacenter | Co-convenor @NINSOrig | Co-founder @DPA2018 Northumbria Law School City Campus East, Newcastle upon Tyne NE1 8ST noto.la.diega@gmail.com +44(0)191 349 5562 You can access my papers on Academia.edu <http://northumbria.academia.edu/GuidoNotoLaDiega> and on the Social Science Research Network (SSRN <https://papers.ssrn.com/sol3/cf_dev/AbsByAuth.cfm?per_id=1794950>) This email and any attachment hereto are strictly confidential and are exclusively intended for the person above identified. Without the intended recipient’s entitlement, use, copy, and dissemination of this email are prohibited. If you have received it in error, please advise us immediately by telephone and return the documents received to the above address, deleting the files. Thank you. Unless necessary, please do not print this email.
On 27/03/2019, Guido Noto La Diega <noto.la.diega@gmail.com> wrote:
Rossana Ducato e io ci stiamo chiedendo se si possa utilizzare il GDPR per neutralizzare l'upload filter, v. https://youtu.be/wDrTa8StNvY
:-D Nice hack! Ho una obiezione. Un upload filter non prende una decisione autonoma sul soggetto, ma sul contenuto da questi caricato. Inoltre (in teoria) non analizza i dati personali del soggetto, ma il contenuto del video. Infine l'articolo 22 comma 2 dice che
Paragraph 1 shall not apply if the decision: [...] (b) is authorised by Union or Member State law to which the controller is subject and which also lays down suitable measures to safeguard the data subject's rights and freedoms and legitimate interests;
Immagino che la nuova direttiva possa costituire questo tipo di autorizzazione. Non voglio difendere la direttiva, ma capire meglio la vostra analisi. Giacomo
Mi pare ci sia una falla nel tuo ragionamento. Se la Direttiva Copyright non introduce un obbligo di upload filter automatizzato (come tu sostieni, e io concordo, per quanto ci siano incentivi economici e giuridici a che il filtro sia automatico) allora non puoi invocare l'eccezione ex art 22(2)(b) GDPR. Sull'analisi del contenuto v analisi dei metadati non sono cosi' sicuro sia una dicotomia che tenga (e, come nel mio caso, nel video parlo della mia fede politica e della mia sessualita', quindi il contenuto spesso e' esso stesso dato personale se non sensibile) On Thu, 28 Mar 2019 at 00:40, Giacomo Tesio <giacomo@tesio.it> wrote:
On 27/03/2019, Guido Noto La Diega <noto.la.diega@gmail.com> wrote:
Rossana Ducato e io ci stiamo chiedendo se si possa utilizzare il GDPR per neutralizzare l'upload filter, v. https://youtu.be/wDrTa8StNvY
:-D
Nice hack!
Ho una obiezione.
Un upload filter non prende una decisione autonoma sul soggetto, ma sul contenuto da questi caricato. Inoltre (in teoria) non analizza i dati personali del soggetto, ma il contenuto del video.
Infine l'articolo 22 comma 2 dice che
Paragraph 1 shall not apply if the decision: [...] (b) is authorised by Union or Member State law to which the controller is subject and which also lays down suitable measures to safeguard the data subject's rights and freedoms and legitimate interests;
Immagino che la nuova direttiva possa costituire questo tipo di autorizzazione.
Non voglio difendere la direttiva, ma capire meglio la vostra analisi.
Giacomo
-- Guido Guido Noto La Diega, PhD FHEA Senior Lecturer / European Research Partnerships Coordinator @ Northumbria Law School Director @italiot | Fellow @nexacenter | Co-convenor @NINSOrig | Co-founder @DPA2018 Northumbria Law School City Campus East, Newcastle upon Tyne NE1 8ST noto.la.diega@gmail.com +44(0)191 349 5562 You can access my papers on Academia.edu <http://northumbria.academia.edu/GuidoNotoLaDiega> and on the Social Science Research Network (SSRN <https://papers.ssrn.com/sol3/cf_dev/AbsByAuth.cfm?per_id=1794950>) This email and any attachment hereto are strictly confidential and are exclusively intended for the person above identified. Without the intended recipient’s entitlement, use, copy, and dissemination of this email are prohibited. If you have received it in error, please advise us immediately by telephone and return the documents received to the above address, deleting the files. Thank you. Unless necessary, please do not print this email.
On 28/03/2019, Guido Noto La Diega <noto.la.diega@gmail.com> wrote:
Mi pare ci sia una falla nel tuo ragionamento. Se la Direttiva Copyright non introduce un obbligo di upload filter automatizzato (come tu sostieni, e io concordo, per quanto ci siano incentivi economici e giuridici a che il filtro sia automatico) allora non puoi invocare l'eccezione ex art 22(2)(b) GDPR.
Il GDPR non si applica ad una piattaforma astratta, ma ad una concreta. Se YouTube paga una flotta di moderatori per visionare video sospetti ed identificarne le violazioni del copyright, allora l'eccezione ex art 22(2)(b) GDPR non si applica. Se YouTube mette su un sistema software che effettua il lavoro in modo sostanzialmente autonomo, allora si applica. Insomma, bisogna vedere cosa fanno in pratica.
Sull'analisi del contenuto v analisi dei metadati non sono cosi' sicuro sia una dicotomia che tenga (e, come nel mio caso, nel video parlo della mia fede politica e della mia sessualita', quindi il contenuto spesso e' esso stesso dato personale se non sensibile)
Ottima obbiezione! In realtà anche solo la tua immagine è un dato personale sensibile. Rimane però l'obbiezione che la "decisione" che YouTube prende riguarda il video, non te. L'articolo 22(1) del GDPR recita
The data subject shall have the right not to be subject to a decision based solely on automated processing, including profiling, which produces legal effects concerning him or her or similarly significantly affects him or her.
Si può sostenere che l'impossibilità di caricare un video su YouTube impatti la tua vita quanto una decisione che abbia effetto legale? Credo che se la risposta è sì (per esempio perché una legge ti garantisce il diritto di esprimere le tuo opinioni politiche su qualsiasi mezzo di comunicazione) allora credo che il GDPR diventerebbe secondario, e tale legge diventerebbe il fulcro su cui far leva per ottenere la pubblicazione. Comunque credo che il problema per cui il GDPR non può essere usato per impedire che gli upload filter vengano installati è che entrambe le normative vengono applicate caso per caso, pubblicazione per pubblicazione. Giacomo
On Thu, Mar 28, 2019 at 03:00:27PM +0100, Giacomo Tesio wrote:
Se YouTube paga una flotta di moderatori per visionare video sospetti ed identificarne le violazioni del copyright, allora l'eccezione ex art 22(2)(b) GDPR non si applica.
Se YouTube mette su un sistema software che effettua il lavoro in modo sostanzialmente autonomo, allora si applica.
Insomma, bisogna vedere cosa fanno in pratica.
Attenzione: la direttiva dice anche (highlight mio) "[hosters] should make their best efforts *in accordance with high industry standards* of professional diligence to avoid the availability on their services of unauthorised works and other subject matter, as identified by the relevant rightholders". Ergo non è proprio che ognuno fa come gli pare. E c'è anche un effetto bandwagon, imposto dai grossi attori del settore. Se Google, Facebook e compagnia usano gli upload filter, e mostrano di avere un buoni risultati, sarà difficile giustificare l'uso di un plotone di moderatori che danno risultati più scarsi in termini di falsi negativi. (E penso siamo tutti d'accordo che la possibilità che Google & co. abbandonino le loro tecnologie di filtering in favore dei suddetti plotoni rasentino lo zero.) Quindi sappiamo già (per lo meno con altissima confidenza) quali saranno gli standard e quali gli obblighi de facto imposti a tutti nel settore. (Up to interpretazioni fantasiose da parte dei giudici di turno, ovviamente.) Ciao -- Stefano Zacchiroli . zack@upsilon.cc . upsilon.cc/zack . . o . . . o . o Computer Science Professor . CTO Software Heritage . . . . . o . . . o o Former Debian Project Leader & OSI Board Director . . . o o o . . . o . « the first rule of tautology club is the first rule of tautology club »
On 28/03/2019, Stefano Zacchiroli <zack@upsilon.cc> wrote:
Attenzione: la direttiva dice anche (highlight mio) "[hosters] should make their best efforts *in accordance with high industry standards* of professional diligence to avoid the availability on their services of unauthorised works and other subject matter, as identified by the relevant rightholders".
Ergo non è proprio che ognuno fa come gli pare. E c'è anche un effetto bandwagon, imposto dai grossi attori del settore.
Buona obbiezione!
Se Google, Facebook e compagnia usano gli upload filter, e mostrano di avere un buoni risultati...
Appunto, sono curioso di vedere se mostreranno questi buoni risultati. :-)
sarà difficile giustificare l'uso di un plotone di moderatori che danno risultati più scarsi in termini di falsi negativi.
Sarà difficile se stiamo parlando di industry STANDARD, se il software adottato per il filtro sarà parte di uno standard che ne renda possibile implementazioni alternative di corrispondente qualità su hardware ragionevolmente diffuso. Se i GAFAM hanno upload filter che funzionano, e gli altri no... difficilmente si potrà parlare di "industry standard", non credi?
(E penso siamo tutti d'accordo che la possibilità che Google & co. abbandonino le loro tecnologie di filtering in favore dei suddetti plotoni rasentino lo zero.)
A meno che da qualche parte nel mondo, i moderatori non costino meno delle AI. Giacomo
1. Puo' la piattaforma concreta, ad es. YouTube, dire di essere stata autorizzata dalla Direttiva a imporre un upload filter? 2. La decisione di takedown riguarda il video e non me, ma ha un effetto significativo su me e i miei diritti ed e' questo quello che conta On Thu, 28 Mar 2019 at 14:35, Giacomo Tesio <giacomo@tesio.it> wrote:
On 28/03/2019, Stefano Zacchiroli <zack@upsilon.cc> wrote:
Attenzione: la direttiva dice anche (highlight mio) "[hosters] should make their best efforts *in accordance with high industry standards* of professional diligence to avoid the availability on their services of unauthorised works and other subject matter, as identified by the relevant rightholders".
Ergo non è proprio che ognuno fa come gli pare. E c'è anche un effetto bandwagon, imposto dai grossi attori del settore.
Buona obbiezione!
Se Google, Facebook e compagnia usano gli upload filter, e mostrano di avere un buoni risultati...
Appunto, sono curioso di vedere se mostreranno questi buoni risultati. :-)
sarà difficile giustificare l'uso di un plotone di moderatori che danno risultati più scarsi in termini di falsi negativi.
Sarà difficile se stiamo parlando di industry STANDARD, se il software adottato per il filtro sarà parte di uno standard che ne renda possibile implementazioni alternative di corrispondente qualità su hardware ragionevolmente diffuso.
Se i GAFAM hanno upload filter che funzionano, e gli altri no... difficilmente si potrà parlare di "industry standard", non credi?
(E penso siamo tutti d'accordo che la possibilità che Google & co. abbandonino le loro tecnologie di filtering in favore dei suddetti plotoni rasentino lo zero.)
A meno che da qualche parte nel mondo, i moderatori non costino meno delle AI.
Giacomo
-- Guido Guido Noto La Diega, PhD FHEA Senior Lecturer / European Research Partnerships Coordinator @ Northumbria Law School Director @italiot | Fellow @nexacenter | Co-convenor @NINSOrig | Co-founder @DPA2018 Northumbria Law School City Campus East, Newcastle upon Tyne NE1 8ST noto.la.diega@gmail.com +44(0)191 349 5562 You can access my papers on Academia.edu <http://northumbria.academia.edu/GuidoNotoLaDiega> and on the Social Science Research Network (SSRN <https://papers.ssrn.com/sol3/cf_dev/AbsByAuth.cfm?per_id=1794950>) This email and any attachment hereto are strictly confidential and are exclusively intended for the person above identified. Without the intended recipient’s entitlement, use, copy, and dissemination of this email are prohibited. If you have received it in error, please advise us immediately by telephone and return the documents received to the above address, deleting the files. Thank you. Unless necessary, please do not print this email.
On 28/03/2019, Guido Noto La Diega <noto.la.diega@gmail.com> wrote:
1. Puo' la piattaforma concreta, ad es. YouTube, dire di essere stata autorizzata dalla Direttiva a imporre un upload filter?
Upload filter, sì. Ma non può dire di essere obbligata dalla direttiva a usare un software. E se hai ragione, il combinato con il GDPR, potrebbe costringerla ad usare personale umano dedicato. Il che forse apre scenari... interessanti. :-D
2. La decisione di takedown riguarda il video e non me, ma ha un effetto significativo su me e i miei diritti ed e' questo quello che conta
Non lo so. Perché non puoi obbligare la Rai a distribuire lo stesso video in TV? Perché dovresti poter obbligare YouTube? Non sono domande retoriche... davvero non so se cambi qualcosa. Giacomo
On Thu, Mar 28, 2019 at 03:35:41PM +0100, Giacomo Tesio wrote:
Se i GAFAM hanno upload filter che funzionano, e gli altri no... difficilmente si potrà parlare di "industry standard", non credi?
"Industry standard" (purtroppo) non implica necessariamente le buone proprietà di essere uno standard aperto, promosso da uno standard body independente, con un'implementazione di riferimento FOSS, etc etc etc. Può benissimo essere uno standard de facto, implementato da una sola azienda, interamente proprietario. Quello che io personalmente credo (e temo) che avverrà è che Google venderà a tutti quanti ContentID come servizio non-self-hosted. E questo (purtroppo) sarebbe un argomento molto forte per sostenere che se un piccolo attore non lo usa allora è in violazione della direttiva perché non usa la tecnologia dominante sul mercato. Nel caso non fosse chiaro dalle mie parentesi, non è che io sia contento di questo outcome, intendiamoci. Ma se proprio dovessi scommettere ci metterei qualche euro sopra. -- Stefano Zacchiroli . zack@upsilon.cc . upsilon.cc/zack . . o . . . o . o Computer Science Professor . CTO Software Heritage . . . . . o . . . o o Former Debian Project Leader & OSI Board Director . . . o o o . . . o . « the first rule of tautology club is the first rule of tautology club »
On Thu, Mar 28, 2019 at 3:54 PM Stefano Zacchiroli <zack@upsilon.cc> wrote:
Quello che io personalmente credo (e temo) che avverrà è che Google venderà a tutti quanti ContentID come servizio non-self-hosted. E questo (purtroppo) sarebbe un argomento molto forte per sostenere che se un piccolo attore non lo usa allora è in violazione della direttiva perché non usa la tecnologia dominante sul mercato.
Non serve. Esiste già l'Industry Standard, è AudibleMagic, usato da Vimeo, DailyMotion, Tim Vision e anche da... YouTube (che su questo ha costruito Content-Id). M.
Dalla newsletter EDRI di oggi: ======================================================================= 2. GDPR incompatibility – the blind spot of the copyright debate ======================================================================= The debate around the Copyright Directive reform has been intense. Former Article 13, which became Article 17 in the text voted by the European Parliament on 26 March, created the greatest controversy between stakeholders arguing about the so-called “value gap” in the creative sectors, upload filters, and a new platform liability regime, among others issues. However, few observers have analysed the impact of Article 13/17 on the General Data Protection Regulation (GDPR). On 23 March, Dr. Malte Engeler, a German judge, published an article explaining why the filtering technology required by the Copyright Directive might be incompatible with European data protection rules. Article 13/17 requires content hosting providers to give their best efforts to prevent the upload or re-upload of copyright-protected works – which can only be achieved with upload filters – except if they are covered by specific copyright exceptions such as quotation, criticism or parody. For filters to function properly while taking into account those exceptions, they would need to recognise the context of the upload, that is to say information surrounding the content including personal data of the user uploading it. The question Engeler asks is under which legal basis of GDPR would platforms be able to process such personal data? According to Engeler, platforms would be considered controllers in the sense of the GDPR because they decide which technologies they will use to monitor content. When analysing a film extract uploaded without authorisation, a filter would need to know whether it was used by a film critic – which would be legal according to the copyright exceptions listed in Article 13/17 – or by a user attempting to illegally distribute the film. Detecting such differences in the use of the same piece of content would depend on “meta information about the upload” such as the user identity, the place, and the date. This information would be considered personal data, and its analysis by the algorithm would be processing under GDPR. The article goes on by examining the legal basis provided for in the GDPR (Article 6(1)), under which such processing would be allowed. Consent could not be freely given because all platforms would be required to have this processing in place, leaving no alternative to users. Making upload filters part of the terms and conditions would not respect the criteria of necessity of paragraph 1b, which allows the processing of personal data to execute a contract. Furthermore, the processing of personal data by content filters is neither necessary to protect the user’s vital interests, nor is it done for public or legitimate interests pursued by the platform – they don’t want an obligation to put filters in place. This leaves the platform with the legal basis whereby the processing is necessary for compliance with another legal obligation (para. 1c), which would be compliance with the copyright Directive. However, considering the high risk of liability, smaller platforms will likely have to implement third party filters, bought as a service from bigger companies that have invested tens of millions of euros in such technologies. As a result, few big content filtering companies will be able to process the above-mentioned personal data of the vast majority of users. The new copyright Directive would thus lead to centralised filtering mechanisms. This is problematic in regards to the principle of proportionality mentioned in the GDPR and in the Charter of Fundamental Rights of the European Union. Such a filtering system was already discarded by the Court of Justice of the European Union (CJEU) because it failed to strike a fair balance “between the right to intellectual property, on the one hand, and the freedom to conduct business, the right to protection of personal data and the freedom to receive or impart information on the other”. The legal obligation that Article 13/17 creates for platforms is incompatible with the right to protection of personal data, which makes it hard to rely on for the processing of personal data under the GDPR. Copyright Directive: Does the best effort principle comply with GDPR? (23.03.2019) https://www.telemedicus.info/article/3402-Copyright-Directive-Does-the-best-... Press Release: Censorship machine takes over EU’s internet (26.03.2019) https://edri.org/censorship-machine-takes-over-eu-internet/ SABAM vs Netlog – another important ruling for fundamental rights (16.02.2012) https://edri.org/sabam_netlog_win/ All you need to know about copyright and EDRi (15.03.2019) https://edri.org/all-you-need-to-know-about-copyright-and-edri/ (Contribution by Chloé Berthélémy, EDRi) On 27/03/2019 19:22, Guido Noto La Diega wrote:
Rossana Ducato e io ci stiamo chiedendo se si possa utilizzare il GDPR per neutralizzare l'upload filter, v. https://youtu.be/wDrTa8StNvY
On Wed, 27 Mar 2019 at 18:19, Guido Noto La Diega <noto.la.diega@gmail.com <mailto:noto.la.diega@gmail.com>> wrote:
1. Sarebbe bello se smettessimo di usare YouTube, Facebook, etc., ma una serie di elementi suggeriscono che continueremo ad affidarci ai grandi intermediari (ad es. per questioni di effetti di rete). Quindi la tua soluzione non risolve il problema, a meno che non si trovi un serio incentivo per cambiare le abitudini di milioni di user. 2. Mi era sembrato che suggerissi che il server privato risolvesse tutti i problemi della direttiva copyright, mentre al piu' puo' contribuire a risolvere il problema dell'upload filter (art. 17, ex art. 13), ma non gli altri problemi posti dalla medesima direttiva 3. Wikipedia ha rimossio il banner 'Ad free forever', cosa succederebbe se per ragioni di sostenibilita' incominciasse a usare pubblicita'? 4. Il testo approvato e' questo http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA..., mi pare sia lo stesso che hai condiviso tu
On Wed, 27 Mar 2019 at 14:59, Giacomo Tesio <giacomo@tesio.it <mailto:giacomo@tesio.it>> wrote:
On 27/03/2019, Guido Noto La Diega <noto.la.diega@gmail.com <mailto:noto.la.diega@gmail.com>> wrote: > se vuoi continuare a usare YouTube
Appunto. _SE_ vuoi continuare ad usare YouTube.
Francamente, nel 2019 non vedo molte ragioni per farlo.
E d'altro canto, usare YouTube per condividere materiale coperto da copyright esclusivo di terze parti è un po'... "sciocco", diciamo. ;-)
> Wikipedia
Wikipedia non è esplicitamente esentata attraverso la definizione 6 all'articolo 2?
> etc. non risolve il problema che queste piattaforme > implementaranno l'upload filter.
Al contrario, li risolve completamente e alla radice. Così come rimuove una valanga di altri problemi (ponendone di nuovi, ma questa volta molto più interessanti).
Semplicemente, NON usi tali piattaforme per partecipare al dibattito pubblico cibernetico che avviene attraverso internet (e/o alla caciara).
> E non risolve ovviamente gli altri > problemi relativi a data minining exception e publishers' right
Non mi è chiaro cosa intendi. Puoi spiegarmi il tuo ragionamento?
Per il data mining, immagino tu faccia riferimento agli articoli 3 e 4. Per i publisher rights immagino tu faccia riferimento all'articolo 15. In entrambi i casi non mi sembra si pongano problemi che possano minare la libertà di espressione individuale che un server ad uso domestico fornisce.
Cosa mi sfugge?
Giacomo PS: tu che sei del mestiere, è questo il testo approvato ieri http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA... ?
-- Guido
Guido Noto La Diega, PhD FHEA Senior Lecturer / European Research Partnerships Coordinator @ Northumbria Law School Director @italiot | Fellow @nexacenter | Co-convenor @NINSOrig | Co-founder @DPA2018
Northumbria Law School City Campus East, Newcastle upon Tyne NE1 8ST
noto.la.diega@gmail.com <mailto:noto.la.diega@gmail.com>
+44(0)191 349 5562
You can access my papers on Academia.edu <http://northumbria.academia.edu/GuidoNotoLaDiega> and on the Social Science Research Network (SSRN <https://papers.ssrn.com/sol3/cf_dev/AbsByAuth.cfm?per_id=1794950>)
This email and any attachment hereto are strictly confidential and are exclusively intended for the person above identified. Without the intended recipient’s entitlement, use, copy, and dissemination of this email are prohibited. If you have received it in error, please advise us immediately by telephone and return the documents received to the above address, deleting the files. Thank you.
Unless necessary, please do not print this email.
-- Guido
Guido Noto La Diega, PhD FHEA Senior Lecturer / European Research Partnerships Coordinator @ Northumbria Law School Director @italiot | Fellow @nexacenter | Co-convenor @NINSOrig | Co-founder @DPA2018
Northumbria Law School City Campus East, Newcastle upon Tyne NE1 8ST
noto.la.diega@gmail.com <mailto:noto.la.diega@gmail.com>
+44(0)191 349 5562
You can access my papers on Academia.edu <http://northumbria.academia.edu/GuidoNotoLaDiega> and on the Social Science Research Network (SSRN <https://papers.ssrn.com/sol3/cf_dev/AbsByAuth.cfm?per_id=1794950>)
This email and any attachment hereto are strictly confidential and are exclusively intended for the person above identified. Without the intended recipient’s entitlement, use, copy, and dissemination of this email are prohibited. If you have received it in error, please advise us immediately by telephone and return the documents received to the above address, deleting the files. Thank you.
Unless necessary, please do not print this email.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
On 28/03/2019, Alberto Cammozzo <ac+nexa@zeromx.net> wrote:
Dalla newsletter EDRI di oggi:
Molto interessante, grazie.
Article 13/17 requires content hosting providers to give their best efforts to prevent the upload or re-upload of copyright-protected works – which can only be achieved with upload filters –
Falso. Basta assumere moderatori umani di diverse lingue e culture per visionare i video prima che vengano distribuiti al pubblico. Non vedo nessun obbligo ad utilizzare software per effettuare il filtro.
For filters to function properly while taking into account those exceptions, they would need to recognise the context of the upload, that is to say information surrounding the content including personal data of the user uploading it.
Questo è molto discutibile. La legge non è uguale per tutti? Perché devi sapere chi sono per sapere se l'ho violata? Giacomo
Se ho capito bene: - L'analisi formale del contenuto (calcolo degli hash/fingerprints) sarà necessariamente automatico e quindi genererà economie di scala che centralizzeranno il trattamento - L'upload del contributo su piattaforme viene fatto necessariamente da un utente registrato, non anonimo. Di conseguenza il solo atto di effettuare l'upload genera dei (meta-)dati che costituiscono un dato personale. - Per verificare se può essere applicata un'eccezione (citazione, ecc) devo entrare nel *merito* del contributo, e questo non solo dipende da altri dati dell'utente ma ne genera altri ancora su di lui. - Essendo un obbligo di legge l'utente non può sottrarsi a questi trattamenti se vuole usare la piattaforma. ciao, A On 28/03/2019 10:57, Giacomo Tesio wrote:
On 28/03/2019, Alberto Cammozzo <ac+nexa@zeromx.net> wrote:
Dalla newsletter EDRI di oggi: Molto interessante, grazie.
Article 13/17 requires content hosting providers to give their best efforts to prevent the upload or re-upload of copyright-protected works – which can only be achieved with upload filters – Falso.
Basta assumere moderatori umani di diverse lingue e culture per visionare i video prima che vengano distribuiti al pubblico.
Non vedo nessun obbligo ad utilizzare software per effettuare il filtro.
For filters to function properly while taking into account those exceptions, they would need to recognise the context of the upload, that is to say information surrounding the content including personal data of the user uploading it. Questo è molto discutibile. La legge non è uguale per tutti? Perché devi sapere chi sono per sapere se l'ho violata?
Giacomo
On 28/03/2019, Alberto Cammozzo <ac+nexa@zeromx.net> wrote:
Se ho capito bene:
- L'analisi formale del contenuto (calcolo degli hash/fingerprints) sarà necessariamente automatico e quindi genererà economie di scala che centralizzeranno il trattamento
Fintanto che gli utenti non imparano ad alterare leggermente il contenuto. Sono d'accordo che il rischio di centralizzazione che consoliderebbe le posizioni dominanti attuali è probabilmente il maggiore problema economico di questa riforma. E sono d'accordo che è necessario prendere contromisure radicali per decentralizzare il Web, rimpiazzando completamente questi servizi. Ma questo non centra nulla con il GDPR.
- L'upload del contributo su piattaforme viene fatto necessariamente da un utente registrato, non anonimo. Di conseguenza il solo atto di effettuare l'upload genera dei (meta-)dati che costituiscono un dato personale.
Vero, ma il trattamento di questi dati può essere separato da quello del contenuto.
- Per verificare se può essere applicata un'eccezione (citazione, ecc) devo entrare nel *merito* del contributo, e questo non solo dipende da altri dati dell'utente ma ne genera altri ancora su di lui.
Non mi è chiaro cosa intendi. Immagina un upload filter umano: non ha bisogno di sapere CHI ha effettuato un caricamento, ha bisogno semplicemente di vederne il contenuto e il contesto che può essere privato di qualsiasi informazione identificativa. Forse mi sfugge semplicemente un esempio in cui sapere chi sono, dove sono etc... è fondamentale per riconoscere il mio diritto ad un'eccezione... cosa hai in mente?
- Essendo un obbligo di legge l'utente non può sottrarsi a questi trattamenti se vuole usare la piattaforma.
Se tali dati personali appartengono al input minimo necessario per effettuare l'elaborazione, hai ragione. Semplicemente non mi viene in mente un caso. Per riconoscere una parodia ad esempio ho solo bisogno di confrontarla con l'originale. Tuttavia, non mi sorprenderebbe se all'utente venisse richiesto di dichiarare per quale scopo effettua l'upload. Ne semplificherebbe il trattamento. Però davvero... non mi è chiaro quale tipo di dato personale potrebbe essere rilevate per calcolare una caratteristica del contenuto. Giacomo
On 28/03/2019 13:00, Giacomo Tesio wrote:
On 28/03/2019, Alberto Cammozzo <ac+nexa@zeromx.net> wrote:
Se ho capito bene:
- L'analisi formale del contenuto (calcolo degli hash/fingerprints) sarà necessariamente automatico e quindi genererà economie di scala che centralizzeranno il trattamento Fintanto che gli utenti non imparano ad alterare leggermente il contenuto.
Questo è un problema tecnico noto dai tempi del DRM, comunque oltre agli hash "esatti" ci sono hash che misurano la /distanza/ da un contenuto dato: posso identificare contenuti /abbastanza simili/ ad uno che voglio proteggere. Aggiungici il watermarking e non sei mai troppo sicuro di aver alterato a sufficienza il contenuto originario.
Sono d'accordo che il rischio di centralizzazione che consoliderebbe le posizioni dominanti attuali è probabilmente il maggiore problema economico di questa riforma. E sono d'accordo che è necessario prendere contromisure radicali per decentralizzare il Web, rimpiazzando completamente questi servizi.
Ma questo non centra nulla con il GDPR.
Ma nemmeno decentralizzare i servizi c'entra nulla con il copyright. :-) L'intenzione sarebbe quella di usare il GDPR come cuneo legale contro il filtering, che promette di essere una macchina infernale di censura.
- L'upload del contributo su piattaforme viene fatto necessariamente da un utente registrato, non anonimo. Di conseguenza il solo atto di effettuare l'upload genera dei (meta-)dati che costituiscono un dato personale. Vero, ma il trattamento di questi dati può essere separato da quello del contenuto.
Non vi sono contenuti vietati "tout court" I contenuti sono leciti o vietati in funzione di chi ne fa l'upload e del suo ruolo in relazione di chi detiene i vari diritti. Potrei avere un ruolo rilevante per il contenuto (sono l'autore, l'editore, l'interprete, il fotografo, il curatore della mostra, l'agente, ...); potrei svolgere un'attività che mi garantisce dei privilegi (giornalista, ricercatore, forze dell'ordine) eccetera; potrebbero anche esserci dei criteri di giudizio da applicare per la citazione, parodia, ecc in funzione dell'intenzione di chi propone un contenuto derivato: il comico di professione, il politico, il musicista, il giornalista citano abitualmente, per contro un bot programmato ad hoc potrebbe "citare" strumentalmente per aggirare il divieto. Il contenuto andrebbe autorizzato o vietato in relazione a ciascuno di questi ruoli e a chissà quanti altri cui non ho pensato. Inutile profetizzare che tutto questo sarà oggetto di uno lucroso sforzo di codificazione e automatizzazione e gestito con degli schemi autorizzativi non dissimili da quelli già studiati per i DRM, un ginepraio che ha già dimostrato i suoi limiti. Il progetto Xanadu, l'ipertesto che Ted Nelson progettava prima dell'avvento del Web, aveva questi aspetti di gestione dei contenuti già nel progetto, e credo che la complessità risultante sia stato uno dei motivi per cui Xanadu ha avuto un ritardo tale da non vedere mai la luce. Ciao, Alberto
- Per verificare se può essere applicata un'eccezione (citazione, ecc) devo entrare nel *merito* del contributo, e questo non solo dipende da altri dati dell'utente ma ne genera altri ancora su di lui. Non mi è chiaro cosa intendi. Immagina un upload filter umano: non ha bisogno di sapere CHI ha effettuato un caricamento, ha bisogno semplicemente di vederne il contenuto e il contesto che può essere privato di qualsiasi informazione identificativa.
Forse mi sfugge semplicemente un esempio in cui sapere chi sono, dove sono etc... è fondamentale per riconoscere il mio diritto ad un'eccezione... cosa hai in mente?
- Essendo un obbligo di legge l'utente non può sottrarsi a questi trattamenti se vuole usare la piattaforma. Se tali dati personali appartengono al input minimo necessario per effettuare l'elaborazione, hai ragione. Semplicemente non mi viene in mente un caso.
Per riconoscere una parodia ad esempio ho solo bisogno di confrontarla con l'originale.
Tuttavia, non mi sorprenderebbe se all'utente venisse richiesto di dichiarare per quale scopo effettua l'upload. Ne semplificherebbe il trattamento.
Però davvero... non mi è chiaro quale tipo di dato personale potrebbe essere rilevate per calcolare una caratteristica del contenuto.
Giacomo
On Thu, Mar 28, 2019 at 12:21 PM Alberto Cammozzo <ac+nexa@zeromx.net> wrote:
Se ho capito bene:
- L'analisi formale del contenuto (calcolo degli hash/fingerprints) sarà necessariamente automatico e quindi genererà economie di scala che centralizzeranno il trattamento
Esatto. Detto questo, il calcolo avviene anche ora (content-id è necessario su OGNI contenuto, a prescindere che sia un Reference File o meno), quindi non cambia nulla rispetto alla condizione presente.
- L'upload del contributo su piattaforme viene fatto necessariamente da un utente registrato, non anonimo. Di conseguenza il solo atto di effettuare l'upload genera dei (meta-)dati che costituiscono un dato personale.
Non è per nulla scontato che sia dato personale, visto che gli account possono benissimo essere (come ora) non personali ma aziendali, sopratutto per la gestione dei database di fingerprint. Gestiamo clienti con database di miliardi di contenuti in fingerprint e con account aziendali, anche su Youtube/Facebook. Detto questo, anche ora ogni caricamento nella massima parte delle realtà che hanno "lobbato" viene fatto necessariamente da un utente registrato, non anonimo e quindi non cambia nulla rispetto alla condizione presente. - Per verificare se può essere applicata un'eccezione (citazione, ecc)
devo entrare nel *merito* del contributo, e questo non solo dipende da altri dati dell'utente ma ne genera altri ancora su di lui.
L'utente non è una persona fisica, non necessariamente comunque. E qualora voglia fare un claim anche ORA (applicando DMCA) deve dichiarare la propria identità e dare dati personali, quindi non cambia nulla rispetto alla condizione presente.
- Essendo un obbligo di legge l'utente non può sottrarsi a questi trattamenti se vuole usare la piattaforma.
Esatto. Come succede ora, visto che già AD OGGI una persona fisica o giuridica prima di ricare deve dichiarare, nelle medesime modalità, di essere titolare del contenuto. Il calcolo dell'hash già avviene nelle maggiori piattaforme, quindi non cambia nulla rispetto al presente. M. [image: photo] *Matteo G.P. Flora* Founder and CEO, TF Group srl +39.347.9676430 | mf@thefool.it http://thefool.it Via Vitruvio, 1, Milano (MI), Italy <https://us.linkedin.com/in/matteoflora> <https://facebook.com/lastknight> <https://youtube.com/user/mgpfvideo> <https://twitter.com/lastknight>
On 28/03/2019, Matteo G.P. Flora <mf@thefool.it> wrote:
il calcolo avviene anche ora [...]
Detto questo, anche ora [...]
E qualora voglia fare un claim anche ORA [...]
Esatto. Come succede ora, visto che già AD OGGI [...]
Bisogna proprio trovargli un lavoro a sti Eurodeputati... Hanno discusso MESI per scrivere e votare 150 pagine... che non cambiano nulla! Boh... ma... sei sicuro? :-D Giacomo
On March 27, 2019 6:19:24 PM UTC, Guido Noto La Diega <noto.la.diega@gmail.com> wrote:
1. Sarebbe bello se smettessimo di usare YouTube, Facebook, etc., ma una serie di elementi suggeriscono che continueremo ad affidarci ai grandi intermediari (ad es. per questioni di effetti di rete). Quindi la tua soluzione non risolve il problema, a meno che non si trovi un serio incentivo per cambiare le abitudini di milioni di user.
È questo il punto. La mia speranza è che la nuova direttiva sul copyright finisca per creare questo incentivo. A quanto posso osservare dal mio peculiare punto di vista, lo sta già facendo. Nota che non è necessario che tutti abbandonino YouTube o Facebook domani. Basta che un 1% dei loro utenti si sposti nel corso di 2-4 anni per innescare una reazione a catena. Naturalmente questa decentralizzazione non avverrà da sé. E i colossi non staranno a guardare. C'è molto lavoro da fare. Ma questi piccoli sever economici e a basso consumo sono un passo nella giusta direzione.
2. Mi era sembrato che suggerissi che il server privato risolvesse tutti i problemi della direttiva copyright, mentre al piu' puo' contribuire a risolvere il problema dell'upload filter (art. 17, ex art. 13), ma non gli altri problemi posti dalla medesima direttiva
No, scusa hai ragione. Mi sono espresso in modo troppo generale. Io pensavo esclusivamente ai potenziali problemi per la libertà di espressione di cui sono a conoscenza (upload filters e links). Per questi, i server domestici sono l'unica vera soluzione.
3. Wikipedia ha rimossio il banner 'Ad free forever', cosa succederebbe se per ragioni di sostenibilita' incominciasse a usare pubblicita'?
Domanda interessante. Io scommetterei sulla nascita di una alternativa decentralizzata. Non saprei su quale tecnologia sottostante scommettere però. Probabilmente BitTorrent.
4. Il testo approvato e' questo http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA..., mi pare sia lo stesso che hai condiviso tu
Ok si, è quello... grazie mille! Giacomo
participants (9)
-
Alberto Cammozzo -
Giacomo -
Giacomo Tesio -
Guido Noto La Diega -
lorenzo albertini -
Matteo G.P. Flora -
Mauro Alovisio -
Stefano Quintarelli -
Stefano Zacchiroli