On September 18, 2020 9:04:24 AM UTC, Giuseppe Attardi <attardi@di.unipi.it> wrote:
Sembra sia di moda oggi quando un algoritmo non funziona bene, dire che è colpa dell’AI.
Direi che è normale, dopo anni a vendere qualsiasi software come AI. :-)
Ho cercato dove fosse coinvolta la AI in questo caso, ma ho trovato solo citate tecniche di analisi statistica. Anche se l’AI usa tecniche statistiche durante l’apprendimento,
Calibrazione, non apprendimento. Ricondurre un processo di calibrazione ad una esperienza soggettiva dell'uomo confonde sia chi legge... che chi scrive. ;-) Potremmo al limite definire questo processo di calibrazione "programmazione incosciente", in quanto le matrici prodotte vengono interpretate dal software "AI" esattamente come un bytecode python viene interpretato dall'interprete "Python", e costituiscono dunque un programma. "Incosciente" non solo perché i programmatori non sono (tutti) coscienti di star programmando, come invece sono mentre scrivono codice python, non solo perché non sono in grado di decompilare quelle matrici ottenendo codice human readable, ma perché non hanno coscienza né dell'algoritmo che quelle matrici devono rappresentare, né di quello che effettivamente rappresentano e dunque non possono individuarne i bachi. Ma ci sono sempre umani che programmano (pur statisticamente) una macchina. NON una macchina che apprende. (tanto meno un'algoritmo, che è un'astrazione presente solo nelle menti umane, come un numero o un insieme)
AI e statistica non sono la stessa cosa.
Infatti! Se è scritta in Power Point è AI. Se è scritta in Python è Machine Learning. Se è scritta su un giornale, è statistica. Non è affatto la stessa cosa! :-D
L’AI richiede dati annotati da umani secondo il principio di Human-in-the-loop, che contribuiscono un’interpretazione umana dei fenomeni. Se un sistema di diagnostica radiologica fa una segnalazione, è perché ha imparato da migliaia di immagini annotate da radiologi come si interpretano quelle immagini.
Non ha imparato nulla. Semplicemente, attraverso un processo statistico i programmatori hanno sintetizzato un software in grado di processare quelle immagini fornendo un output che un essere umano interpreta come una segnalazione.
Seconda considerazione. L’articolo riporta che:
the UK's Information Commissioner's Office (ICO)'s draft AI auditing framework fairness requires personal data to be handled "in ways that people would reasonably expect and not use it in ways that have unjustified adverse effects on them.”
La chiave sta nell’aggettivo “unjustified”. Perché è evidente che ogni sistema che prende decisioni, ne prenderà alcune a favore di alcuni ed altre a sfavore di altri. Un sistema che non faccia distinzioni sarebbe inutile.
Solo gli esseri umani prendono decisioni. Perché solo gli esseri umani possono risponderne ad altri esseri umani. Chiunque interpreti l'output di un software come una decisione, non dovrebbe essere in condizione di ricevere o essere influenzato da quell'output.
La domanda quindi è: [...] chi decide se una scelta è unjustified?
Quando si tratta di una scelta, lo decidono gli esseri umani. Quando si tratta di un output... anche: si chiama debugging. ;-)
Siamo sicuri di essere in grado di deciderlo?
Se non lo siamo (o quando non lo siamo), è sufficiente evitare di applicare queste tecnologie agli esseri umani. Con tutte le applicazioni possibili!
[...] come si definisce unjustified [...]
Se la macchina avesse capacità decisionali superiori alle nostre, perché ad esempio tiene conto di molti più fattori di quanti noi umani siamo in grado di comprendere, sarebbe unjustified?
Splendida domanda! L'uso di un software come supporto ad una decisione umana può essere "giustificato" e "giustificabile" se e solo se: - la selezione dei dati in input è perfettamente comprensibile e condivisa da tutte le persone coinvolte - l'interpretazione dell'output è perfettamente comprensibile e condivisa da tutte le persone coinvolte - l'intera elaborazione è perfettamente comprensibile e repricabile "manualmente" da ciascuna delle persone coinvolte Un alieno (molto più probabile di un AGI [1]) che tenga conto di molti più fattori di quanti noi umani siamo in grado di comprendere... dovrà insegnarci a comprenderli come lui, prima che possiamo fidarci di lui. Perché? Semplicemente perché esistono sempre infinite soluzioni sbagiate ad un qualsiasi problema che rendono la probabilità di azzeccarne una giusta prossima a zero. D'altro canto, questa è la funzione della statistica. Permetterci di modellare e comprendere sistemi sempre più complessi. Ed è questo l'uso migliore che possiamo fare di queste tecnologie. Non come comodi "decisori irresponsabili" dietro cui nasconderci, ma come strumenti di indagine della complessità. E non c'è nemmeno bisogno di "amplificare l'intelligenza" dell'uomo. Basta applicare quella che abbiamo nell'uso degli strumenti. Giacomo 1) Più probabilmente se un alieno avesse capacità intellettive superiori alle nostre, ci sterminerebbe. O ci lascerebbe fare da soli. E senza aver bisogno di capacità decisionali superiori alle nostre, potrebbe giustificare facilmente questa decisione. Soprattutto a sé stesso. Esattamente come noi.