On 10/04/2019, Stefano Quintarelli <stefano@quintarelli.it> wrote:
ciao,
nel merito, molte (non poche) delle affermazioni fatte nel testo sono banalmente false ed offensive.
In effetti sorvola su una frase a pagina 3 delle linee guida che secondo me invece va sottolineata:
This document is a starting point for the discussion about “Trustworthy AI for Europe”.
Come punto di partenza per una riflessione internazionale mi sembra ottimo. Ma se questo documento è definitivo o in qualche modo "authoritative", allora (nel merito) Metzinger pone obbiezioni importanti su cui è bene riflettere. A pagina 12 in "The principle of respect for human autonomy" viene detto:
AI systems should not unjustifiably subordinate, coerce, deceive, manipulate, condition or herd humans.
Chi decide quando manipolare o condizionare gli esseri umani è giustificabile? A pagina 13 in "The principle of explicability"
Explicability is crucial for building and maintaining users’ trust in AI systems. This means that processes need to be transparent, the capabilities and purpose of AI systems openly communicated, and decisions – to the extent possible – explainable
Perché "to the extent possible"? Quando non è possibile spiegarle, il principio suddetto è stato semplicemente violato... o sbaglio? Sulla responsabilità (largamente estesa dopo il draft) la frase fondamentale è un po' sommersa dal testo a fine pagina 19, ma almeno è chiara:
It necessitates that mechanisms be put in place to ensure responsibility and accountability for AI systems and their outcomes, both before and after their development, deployment and use.
La responsabilità umana DEVE essere sempre riconoscibile e attribuibile. Su questo Metzinger ha assolutamente ragione:
Machines are not trustworthy; only humans can be trustworthy (or untrustworthy).
E la preoccupazione che esprime è la stessa che ho avuto io subito dopo l'uscita del draft:
The Trustworthy AI story is a marketing narrative invented by industry, a bedtime story for tomorrow's customers. [...] Hence the Trustworthy AI narrative is, in reality, about developing future markets and using ethics debates as elegant public decorations for a large-scale investment strategy.
La vaghezza del testo può essere interpretata come un umile riconoscimento dei propri limiti. Ma se si pone come termine del discorso, come framework etico cui è sufficiente adattare le norme, allora posso condividere la preoccupazione di Metzinger. Ha infatti ragione su un punto: l'assenza di PRINCIPI NON NEGOZIABILI è una grave lacuna del testo, ragionevole solo se finalizzata ampliare il dibattito per la loro definizione. Cosa ne pensi? Giacomo