On 18 Sep 2020, at 17:27, Giacomo Tesio <giacomo@tesio.it> wrote:

On September 18, 2020 9:04:24 AM UTC, Giuseppe Attardi
<attardi@di.unipi.it> wrote:
Sembra sia di moda oggi quando un algoritmo non funziona bene, dire
che è colpa dell’AI.

Direi che è normale, dopo anni a vendere qualsiasi software come AI. :-)


Ho cercato dove fosse coinvolta la AI in questo caso, ma ho trovato
solo citate tecniche di analisi statistica.
Anche se l’AI usa tecniche statistiche durante l’apprendimento,

Calibrazione, non apprendimento.

Ricondurre un processo di calibrazione ad una esperienza soggettiva
dell'uomo confonde sia chi legge... che chi scrive. ;-)

Potremmo al limite definire questo processo di calibrazione
"programmazione incosciente", in quanto le matrici prodotte vengono
interpretate dal software "AI" esattamente come un bytecode python viene
interpretato dall'interprete "Python", e costituiscono dunque un
programma.

"Incosciente" non solo perché i programmatori non sono (tutti) coscienti
di star programmando, come invece sono mentre scrivono codice python,
non solo perché non sono in grado di decompilare quelle matrici
ottenendo codice human readable, ma perché non hanno coscienza né
dell'algoritmo che quelle matrici devono rappresentare, né di quello
che effettivamente rappresentano e dunque non possono individuarne i
bachi.

Ma ci sono sempre umani che programmano (pur statisticamente) una
macchina. NON una macchina che apprende.

(tanto meno un'algoritmo, che è un'astrazione presente solo nelle menti
umane, come un numero o un insieme)


AI e statistica non sono la stessa cosa.

Infatti!

Se è scritta in Power Point è AI.
Se è scritta in Python è Machine Learning.
Se è scritta su un giornale, è statistica.

Non è affatto la stessa cosa! :-D

Siamo seri!. L’AI è una disciplina scientifica con oltre 70 anni di storia.
L’AI è la disciplina che, occupandosi del problema più difficile, ha introdotto le tecniche più avanzate dell’informatica.
Ma, come diceva Marvin Minski: “when it works, it is no longer AI”.



L’AI richiede dati annotati da umani secondo il principio di
Human-in-the-loop, che contribuiscono un’interpretazione umana dei
fenomeni.
Se un sistema di diagnostica radiologica fa una segnalazione, è perché
ha imparato da migliaia di immagini annotate da radiologi come si
interpretano quelle immagini.

Non ha imparato nulla.

Semplicemente, attraverso un processo statistico i programmatori hanno
sintetizzato un software in grado di processare quelle immagini
fornendo un output che un essere umano interpreta come una segnalazione.


Seconda considerazione. L’articolo riporta che:

the UK's Information Commissioner's Office (ICO)'s draft AI auditing
framework fairness requires personal data to be handled "in ways that
people would reasonably expect and not use it in ways that have
unjustified adverse effects on them.”

La chiave sta nell’aggettivo “unjustified”.
Perché è evidente che ogni sistema che prende decisioni, ne prenderà
alcune a favore di alcuni ed altre a sfavore di altri.
Un sistema che non faccia distinzioni sarebbe inutile.

Solo gli esseri umani prendono decisioni.
Perché solo gli esseri umani possono risponderne ad altri esseri umani.

Sono perfettamente d’accordo. Infatti secondo me solo gli umani sono dotati di libero arbitrio, e le macchine non devono disporne:

Free will has traditionally been conceived of as a kind of power to control one’s choices and actions.
(Assumingly) Humans are endowed of free will, and therefore of the power to chose their goals and which actions to fulffil those goals.
Machine should never be given free will, not even after the singularity, when they will become more “intelligent” than humans.
Freewill is related to self-determination and moral responsibility.
If we don”t give free will to machines, they will not be liable for their actions.
As a consequence there is no such thing as AI ethics, since machines cannot have moral responsibility for their actions.
Self-determination is different from autonomy: autonomy just means that an agent performs some actions by itself, without being controlled by others. An autonomous agent must still obey the goals set to it by a human.
Machines do not have objectives of their own, they just perform tasks required to achieve some objectives set to them by humans.
https://plato.stanford.edu/entries/freewill/


Chiunque interpreti l'output di un software come una decisione, non
dovrebbe essere in condizione di ricevere o essere influenzato da
quell'output.


La domanda quindi è: [...] chi decide se una scelta è unjustified?

Quando si tratta di una scelta, lo decidono gli esseri umani.

Quando si tratta di un output... anche: si chiama debugging. ;-)


Siamo sicuri di essere in grado di deciderlo?

Se non lo siamo (o quando non lo siamo), è sufficiente evitare di
applicare queste tecnologie agli esseri umani.

Con tutte le applicazioni possibili!


[...] come si definisce unjustified [...]

Se la macchina avesse capacità decisionali superiori alle nostre,
perché ad esempio tiene conto di molti più fattori di quanti noi umani
siamo in grado di comprendere, sarebbe unjustified?

Splendida domanda!

L'uso di un software come supporto ad una decisione umana può essere
"giustificato" e "giustificabile" se e solo se:

- la selezione dei dati in input è perfettamente comprensibile e
 condivisa da tutte le persone coinvolte
- l'interpretazione dell'output è perfettamente comprensibile e
 condivisa da tutte le persone coinvolte
- l'intera elaborazione è perfettamente comprensibile e repricabile
 "manualmente" da ciascuna delle persone coinvolte


Un alieno (molto più probabile di un AGI [1]) che tenga conto di molti
più fattori di quanti noi umani siamo in grado di comprendere... dovrà
insegnarci a comprenderli come lui, prima che possiamo fidarci di lui.


Perché?

Semplicemente perché esistono sempre infinite soluzioni sbagiate ad un
qualsiasi problema che rendono la probabilità di azzeccarne una giusta
prossima a zero.


D'altro canto, questa è la funzione della statistica.
Permetterci di modellare e comprendere sistemi sempre più complessi.

Non sono del tutto d’accordo, la statistica ci permette solo di estrarre indicatori dai dati, ma la comprensione è affidata agli scienziati che interpretano quegli indicatori.
Affermi che l’AI non apprende, ma fa calibrazioni di modelli sui dati.
Ciò è ancor più vero della statistica, che non produce modelli predittivi, ma effettua interpolazioni o calcola correlazioni.
E sappiamo che, dati sufficienti dati, si possono ricava correlazioni per giustificare qualunque interpretazione.

— Beppe


Ed è questo l'uso migliore che possiamo fare di queste tecnologie.
Non come comodi "decisori irresponsabili" dietro cui nasconderci, ma
come strumenti di indagine della complessità.

E non c'è nemmeno bisogno di "amplificare l'intelligenza" dell'uomo.
Basta applicare quella che abbiamo nell'uso degli strumenti. 


Giacomo

1) Più probabilmente se un alieno avesse capacità intellettive superiori
  alle nostre, ci sterminerebbe. O ci lascerebbe fare da soli.
  E senza aver bisogno di capacità decisionali superiori alle nostre,
  potrebbe giustificare facilmente questa decisione.
  Soprattutto a sé stesso.
  Esattamente come noi.