On Thu, Mar 28, 2019 at 03:00:27PM +0100, Giacomo Tesio wrote:
Se YouTube paga una flotta di moderatori per visionare video sospetti ed identificarne le violazioni del copyright, allora l'eccezione ex art 22(2)(b) GDPR non si applica.
Se YouTube mette su un sistema software che effettua il lavoro in modo sostanzialmente autonomo, allora si applica.
Insomma, bisogna vedere cosa fanno in pratica.
Attenzione: la direttiva dice anche (highlight mio) "[hosters] should make their best efforts *in accordance with high industry standards* of professional diligence to avoid the availability on their services of unauthorised works and other subject matter, as identified by the relevant rightholders". Ergo non è proprio che ognuno fa come gli pare. E c'è anche un effetto bandwagon, imposto dai grossi attori del settore. Se Google, Facebook e compagnia usano gli upload filter, e mostrano di avere un buoni risultati, sarà difficile giustificare l'uso di un plotone di moderatori che danno risultati più scarsi in termini di falsi negativi. (E penso siamo tutti d'accordo che la possibilità che Google & co. abbandonino le loro tecnologie di filtering in favore dei suddetti plotoni rasentino lo zero.) Quindi sappiamo già (per lo meno con altissima confidenza) quali saranno gli standard e quali gli obblighi de facto imposti a tutti nel settore. (Up to interpretazioni fantasiose da parte dei giudici di turno, ovviamente.) Ciao -- Stefano Zacchiroli . zack@upsilon.cc . upsilon.cc/zack . . o . . . o . o Computer Science Professor . CTO Software Heritage . . . . . o . . . o o Former Debian Project Leader & OSI Board Director . . . o o o . . . o . « the first rule of tautology club is the first rule of tautology club »