Automating ethics: Machines will need to make ethical decisions, and we will be responsible for those decisions.
https://www.oreilly.com/ideas/automating-ethics (tralascio una valanga di opinioni discutibili espresse come verità evidenti in tutta la prima metà dell'articolo... in fondo stiamo parlando di O'Reilly! Non è un caso che l'intero articolo sia una lunga leccata a GMail...)
If we’re going to automate ethical decisions, we need to start from some design principles. Spam detection gives us a surprisingly good start. Gmail’s spam detection assists users. It has been designed to happen in the background and not get into the user’s way. [...] there are too many decisions
La solita ansia ossessiva per la produttività. Ci sono troppe decisioni etiche? O c'è troppo poco tempo per affrontarle? Invece che ridurre le decisioni etiche, e se lasciassimo più tempo alle persone per ponderarle? Un problema che affligge tutte le piattaforme "social" mainstream è l'assenza di moderatori umani in un numero proporzionato alla quantità di utenti. Un moderatore pagato a tempo per dedicarsi alla gestione di 30-50 utenti risolverebbe rapidamente molti problemi. O magari qualcuno pensa davvero che a Twitter importi la libertà di espressione? Minimizza semplicemente i costi! Il fediverse affronta il problema in un modo diverso, distribuendolo fra gli amministratori delle istanze (attraverso il blocco di server che questi ritengono inaccettabili) ma soprattutto delegandolo in larga parte sugli utenti, che possono "zittire" un thread o un utente o "bloccare" un utente che urti la loro sensibilità. Sebbene questo secondo modello abbia dei limiti (ciascuno è incentivato a crearsi autonomamente la propria echo chamber), almeno richiede sempre una scelta etica consapevole ai membri della comunità. Abbiamo troppe scelte etiche da fare? Riduciamo a 20 ore le ore lavorative massime che un individuo può erogare in una settimana! Così avrà il tempo di dedicarsi a tali scelte! ;-)
A second principle we can draw from spam filtering is that decisions can’t be irrevocable. [...] In a conversation, Anna Lauren Hoffmann said it’s less important to make every decision correctly than to have a means of redress by which bad decisions can be corrected. That means of redress must be accessible by everyone, and it needs to be human, even though we know humans are frequently biased and unfair.
La prima persona che mi ha proposto questa idea è stato Marco Ricolfi, parlando dell'automazione di certi tipi di processo estremamente burocratici (scusa Marco, non ricordo esattamente i dettagli sul tipo di processo in questione). L'idea è che la possibilità di ricorso per richiedere un giudizio umano, sia sufficiente a garantire la correttezza del processo nel suo complesso. Io direi però che questo approccio è perseguibile solo se gli effetti sull'uomo sono reversibili in caso di errore. Se si tratta di una questione civile, in cui un oggetto passa di proprietà, non ho particolari obbiezioni. Al massimo si annulla il trasferimento e lo stato risarcisce adeguatamente la parte danneggiata dall'errore del software (rifacendosi poi sulla società che lo produce). Ma se la posta in gioco è la libertà di un essere umano, cui non è possibile restituire gli anni di libertà sottratta, è fondamentale che sia un uomo ad assumersi la piena responsabilità di tale decisione.
Ethical problems arise when a company’s interest in profit comes before the interests of the users. [...] The customer’s interest must always come before the company’s.
Peccato che utenti e clienti non siano la stessa cosa. Peccato che le persone siano il prodotto venduto da queste aziende. Peccato che nessuna delle proposte abbozzate attacchi il problema di fondo: la funzione obbiettivo dell'azienda, che continuerà semplicemente a massimizzare il profitto FINGENDO di garantire l'interesse dell'utente.
There's no way back to some simpler world where your medical records were stored on paper in your doctor’s office, your purchases were made with cash, and your smartphone didn’t exist. And we wouldn’t want to go back. The benefits of the new data-rich world are immense.
Il solito fatalismo. Le solite magnifiche sorti e progressive. I soliti atti di fede. Nel Capitalismo, prima che nella Tecnologia. La tesi cui si voleva giungere era chiara sin dalla prima riga. E' la solita tesi. Ripeterla ancora e ancora è fondamentale per renderla "vera". Un po' come le Fake News. :-D La Tecnologia è un'artefatto umano. Come tale si può orientare, modificare e sostituire. Chiunque sostenga il contrario o è incompetente o è in mala fede. Spesso, è entrambe le cose. Giacomo
participants (1)
-
Giacomo Tesio