Alcuni passaggi interessanti:
- If the goals of an AI system are opaque, and the user’s understanding of their role in calibrating that system are unclear, they will develop a mental model that suits their folk theories about AI, and their trust will be affected.
- In order to thrive, machine learning must become multi-disciplinary.
Il prodotto in discussione è veramente interessante.
E' però molto sospetto come la soluzione proposta per incrementare la fiducia nei sistemi di ML e AI consista dal lasciare sempre la telecamera accesa e permettere alla intelligenza artificiale di selezionare i momenti più felici.
Si cerca di stabilire un rapporto affettivo, di gratitudine, con la intelligenza artificiale.
Cioè si sfrutta un bias cognitivo umano, non le sue capacità logiche e razionali.
Come decidere se possiamo fidarci?
Qualche tempo fa, la panettiera mi ha proposto il pagamento attraverso un App del cellulare, SatisPay. Ho chiesto numi, perché avevo visto volantini di questa App anche da altri esercenti della mia città.
Dopo aver ascoltato la spiegazione (che non ho successivamente approfondito), le ho fatto notare che si stava fidando dei "due ragazzi" che avevano creato l'app.
Ora magari queste sono bravissime persone. Ma quando ha capito che a loro basta fallire per tenersi i 25 euro che ciascun utente gli affida, il suo entusiasmo tecnologico si è un po' smorzato
Ora, non è tanto importante se in effetti vi siano garanzie di legge a tutela degli utenti di quell'app (ci sono? ne io ne la panettiera ne eravamo informati).
Il punto è che la fiducia che la panettiera poneva nell'app non era coerente con la sua comprensione della App stessa, ed era anzi in contraddizione con essa.
Giacomo