On Tue, 8 Jan 2019 at 09:29, Stefano Quintarelli <Stefano@quintarelli.it> wrote:
Non è una decisione, ma un input a chi decide le policy
Certo. Ma è un input che verrà considerato autorevole. Come altri prima di lui... tutti soggetti allo stesso preoccupante bias. Da input come questi non potrà che emergere una regolamentazione lassa e permissiva. Come puoi immaginare, io non sono affatto contrario all'adozione delle tecniche di intelligenza artificiale. Solo, visto lo stato piuttosto primordiale della materia, trovo aberrante che si spinga per affidargli l'uomo senza stabilire seri contrappesi. L'articolo proposto da Ugo, per esempio dice:
“Self-nudging” to behave in socially preferable ways is the best form of nudging, and the only one that preserves autonomy. It is the outcome of human decisions and choices, but it can rely on AI solutions to be implemented and facilitated.
Questo hand-waving è ESTREMAMENTE pericoloso. Solo mia moglie ha il diritto di rompere se dormo solo 3 ore per scrivere al Nexa. E questa fiducia deriva direttamente dalle nostre responsabilità: condividiamo le stesse responsabilità nei confronti della nostra famiglia e io rispondo a lei come lei risponde a me. Le ragioni per cui una IA non può e non deve invece provare a condizionarmi sono così tante e così che si potrebbe scriverci un libro: ti immagini quante cose possono andare storte? A chi risponde l'AI che condiziona la società ad agire in modi "socialmente preferibili"? Un approccio più cauto ed appropriato potrebbe essere quello dei permessi Unix: permettiamo pure l'applicazione di qualsiasi tecnica statistica al resto ma vietiamo ogni applicazione di scatole nere a dati di origine umana e poi, selettivamente ed a valle di seri studi che provino i vantaggi e determinino con chiarezza le esternalità, permettiamo specifiche applicazioni. Un approccio di buon senso, non credi? Giacomo