On 18 Sep 2020, at 17:27, Giacomo Tesio <giacomo@tesio.it> wrote:On September 18, 2020 9:04:24 AM UTC, Giuseppe Attardi
<attardi@di.unipi.it> wrote:Sembra sia di moda oggi quando un algoritmo non funziona bene, dire
che è colpa dell’AI.
Direi che è normale, dopo anni a vendere qualsiasi software come AI. :-)Ho cercato dove fosse coinvolta la AI in questo caso, ma ho trovato
solo citate tecniche di analisi statistica.
Anche se l’AI usa tecniche statistiche durante l’apprendimento,
Calibrazione, non apprendimento.
Ricondurre un processo di calibrazione ad una esperienza soggettiva
dell'uomo confonde sia chi legge... che chi scrive. ;-)
Potremmo al limite definire questo processo di calibrazione
"programmazione incosciente", in quanto le matrici prodotte vengono
interpretate dal software "AI" esattamente come un bytecode python viene
interpretato dall'interprete "Python", e costituiscono dunque un
programma.
"Incosciente" non solo perché i programmatori non sono (tutti) coscienti
di star programmando, come invece sono mentre scrivono codice python,
non solo perché non sono in grado di decompilare quelle matrici
ottenendo codice human readable, ma perché non hanno coscienza né
dell'algoritmo che quelle matrici devono rappresentare, né di quello
che effettivamente rappresentano e dunque non possono individuarne i
bachi.
Ma ci sono sempre umani che programmano (pur statisticamente) una
macchina. NON una macchina che apprende.
(tanto meno un'algoritmo, che è un'astrazione presente solo nelle menti
umane, come un numero o un insieme)AI e statistica non sono la stessa cosa.
Infatti!
Se è scritta in Power Point è AI.
Se è scritta in Python è Machine Learning.
Se è scritta su un giornale, è statistica.
Non è affatto la stessa cosa! :-D
L’AI richiede dati annotati da umani secondo il principio di
Human-in-the-loop, che contribuiscono un’interpretazione umana dei
fenomeni.
Se un sistema di diagnostica radiologica fa una segnalazione, è perché
ha imparato da migliaia di immagini annotate da radiologi come si
interpretano quelle immagini.
Non ha imparato nulla.
Semplicemente, attraverso un processo statistico i programmatori hanno
sintetizzato un software in grado di processare quelle immagini
fornendo un output che un essere umano interpreta come una segnalazione.Seconda considerazione. L’articolo riporta che:
the UK's Information Commissioner's Office (ICO)'s draft AI auditing
framework fairness requires personal data to be handled "in ways that
people would reasonably expect and not use it in ways that have
unjustified adverse effects on them.”
La chiave sta nell’aggettivo “unjustified”.
Perché è evidente che ogni sistema che prende decisioni, ne prenderà
alcune a favore di alcuni ed altre a sfavore di altri.
Un sistema che non faccia distinzioni sarebbe inutile.
Solo gli esseri umani prendono decisioni.
Perché solo gli esseri umani possono risponderne ad altri esseri umani.
Chiunque interpreti l'output di un software come una decisione, non
dovrebbe essere in condizione di ricevere o essere influenzato da
quell'output.La domanda quindi è: [...] chi decide se una scelta è unjustified?
Quando si tratta di una scelta, lo decidono gli esseri umani.
Quando si tratta di un output... anche: si chiama debugging. ;-)Siamo sicuri di essere in grado di deciderlo?
Se non lo siamo (o quando non lo siamo), è sufficiente evitare di
applicare queste tecnologie agli esseri umani.
Con tutte le applicazioni possibili![...] come si definisce unjustified [...]
Se la macchina avesse capacità decisionali superiori alle nostre,
perché ad esempio tiene conto di molti più fattori di quanti noi umani
siamo in grado di comprendere, sarebbe unjustified?
Splendida domanda!
L'uso di un software come supporto ad una decisione umana può essere
"giustificato" e "giustificabile" se e solo se:
- la selezione dei dati in input è perfettamente comprensibile e
condivisa da tutte le persone coinvolte
- l'interpretazione dell'output è perfettamente comprensibile e
condivisa da tutte le persone coinvolte
- l'intera elaborazione è perfettamente comprensibile e repricabile
"manualmente" da ciascuna delle persone coinvolte
Un alieno (molto più probabile di un AGI [1]) che tenga conto di molti
più fattori di quanti noi umani siamo in grado di comprendere... dovrà
insegnarci a comprenderli come lui, prima che possiamo fidarci di lui.
Perché?
Semplicemente perché esistono sempre infinite soluzioni sbagiate ad un
qualsiasi problema che rendono la probabilità di azzeccarne una giusta
prossima a zero.
D'altro canto, questa è la funzione della statistica.
Permetterci di modellare e comprendere sistemi sempre più complessi.
Ed è questo l'uso migliore che possiamo fare di queste tecnologie.
Non come comodi "decisori irresponsabili" dietro cui nasconderci, ma
come strumenti di indagine della complessità.
E non c'è nemmeno bisogno di "amplificare l'intelligenza" dell'uomo.
Basta applicare quella che abbiamo nell'uso degli strumenti.
Giacomo
1) Più probabilmente se un alieno avesse capacità intellettive superiori
alle nostre, ci sterminerebbe. O ci lascerebbe fare da soli.
E senza aver bisogno di capacità decisionali superiori alle nostre,
potrebbe giustificare facilmente questa decisione.
Soprattutto a sé stesso.
Esattamente come noi.