Sembra sia di moda oggi quando un algoritmo non funziona bene, dire che è colpa dell’AI.
Ho cercato dove fosse coinvolta la AI in questo caso, ma ho trovato solo citate tecniche di analisi statistica.Anche se l’AI usa tecniche statistiche durante l’apprendimento, AI e statistica non sono la stessa cosa.
L’AI richiede dati annotati da umani secondo il principio di Human-in-the-loop, che contribuiscono un’interpretazione umana dei fenomeni.
Se un sistema di diagnostica radiologica fa una segnalazione, è perché ha imparato da migliaia di immagini annotate da radiologi come si interpretano quelle immagini.
Seconda considerazione. L’articolo riporta che:
the UK's Information Commissioner's Office (ICO)'s draft AI auditing framework fairness requires personal data to be handled "in ways that people would reasonably expect and not use it in ways that have unjustified adverse effects on them.”
La chiave sta nell’aggettivo “unjustified”.
Perché è evidente che ogni sistema che prende decisioni, ne prenderà alcune a favore di alcuni ed altre a sfavore di altri.
Un sistema che non faccia distinzioni sarebbe inutile.
La domanda quindi è: come si definisce unjustified e chi decide se una scelta è unjustified?
Siamo sicuri di essere in grado di deciderlo?
Se la macchina avesse capacità decisionali superiori alle nostre, perché ad esempio tiene conto di molti più fattori di quanti noi umani siamo in grado di comprendere, sarebbe unjustified?
— Beppe