Sembra sia di moda oggi quando un algoritmo non funziona bene, dire che è colpa dell’AI. Ho cercato dove fosse coinvolta la AI in questo caso, ma ho trovato solo citate tecniche di analisi statistica. Anche se l’AI usa tecniche statistiche durante l’apprendimento, AI e statistica non sono la stessa cosa. L’AI richiede dati annotati da umani secondo il principio di Human-in-the-loop, che contribuiscono un’interpretazione umana dei fenomeni. Se un sistema di diagnostica radiologica fa una segnalazione, è perché ha imparato da migliaia di immagini annotate da radiologi come si interpretano quelle immagini. Seconda considerazione. L’articolo riporta che: the UK's Information Commissioner's Office (ICO)'s draft AI auditing framework fairness requires personal data to be handled "in ways that people would reasonably expect and not use it in ways that have unjustified adverse effects on them.” La chiave sta nell’aggettivo “unjustified”. Perché è evidente che ogni sistema che prende decisioni, ne prenderà alcune a favore di alcuni ed altre a sfavore di altri. Un sistema che non faccia distinzioni sarebbe inutile. La domanda quindi è: come si definisce unjustified e chi decide se una scelta è unjustified? Siamo sicuri di essere in grado di deciderlo? Se la macchina avesse capacità decisionali superiori alle nostre, perché ad esempio tiene conto di molti più fattori di quanti noi umani siamo in grado di comprendere, sarebbe unjustified? — Beppe
On 17 Sep 2020, at 19:17, nexa-request@server-nexa.polito.it wrote:
Date: Thu, 17 Sep 2020 19:10:48 +0200 From: don Luca Peyron <dluca.universitari@gmail.com <mailto:dluca.universitari@gmail.com>> To: Nexa <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> Subject: [nexa] Big bad data: We don't trust AI to make good decisions Message-ID: <CAGS_u7jiyV9yTBVxcNPz9KpsNYH5RHOBvPx-f8SG9d7xH6kE1A@mail.gmail.com <mailto:CAGS_u7jiyV9yTBVxcNPz9KpsNYH5RHOBvPx-f8SG9d7xH6kE1A@mail.gmail.com>> Content-Type: text/plain; charset="utf-8"
A new report from the British Computer Society (BCS), the Chartered Institute for IT, has now revealed that more than half of UK adults (53%) don't trust organisations that use algorithms to make decisions about them.
https://www.zdnet.com/article/big-bad-data-we-dont-trust-ai-to-make-good-dec... <https://www.zdnet.com/article/big-bad-data-we-dont-trust-ai-to-make-good-dec...>
Buona lettura
dl _________________________ don Luca Peyron Direttore Ufficio per la Pastorale Universitaria Arcidiocesi di Torino www.universitari.to.it <http://www.universitari.to.it/> via XX settembre 83, Torino tel. 011 5156239