On Mon, 21 Sep 2020 09:38:05 +0200 Giuseppe Attardi <attardi@di.unipi.it> wrote:
AI e statistica non sono la stessa cosa.
Infatti!
Se è scritta in Power Point è AI. Se è scritta in Python è Machine Learning. Se è scritta su un giornale, è statistica.
Non è affatto la stessa cosa! :-D
Siamo seri!.
Per la verità, ero scherzosamente serissimo! ;-)
L’AI è una disciplina scientifica con oltre 70 anni di storia. L’AI è la disciplina che, occupandosi del problema più difficile, ha introdotto le tecniche più avanzate dell’informatica. Ma, come diceva Marvin Minski: “when it works, it is no longer AI”.
Indubbiamente il sogno della AI ha prodotto investimenti in ricerca straordinari e di conseguenza ha contribuito enormemente al progresso dell'informatica. Un merito che la blockchain, per esempio, non può vantare. Ma, per parafrasare Minski, "if it works, it has never been AI".
Solo gli esseri umani prendono decisioni. Perché solo gli esseri umani possono risponderne ad altri esseri umani.
Sono perfettamente d’accordo. Infatti secondo me solo gli umani sono dotati di libero arbitrio, e le macchine non devono disporne: Free will has traditionally been conceived of as a kind of power to control one’s choices and actions. [...]
:-D Non è che "non devono", è che "non possono"! Il libero arbitrio non è una funzione che l'uomo possa simulare. E' anzitutto una scelta interpretativa con una funzione evolutiva. Non riconoscere il libero arbitrio all'uomo significa ridurre gli esseri umani a complesse macchine deterministiche e dunque intercambiabili che, come tali, possono essere create, distrutte ed usate alla bisogna. [1] Ma attribuirlo alle macchine significa deresponsabilizzare l'uomo. Non avranno il libero arbitrio (come non avranno intelligenza) ma chi l'ignoranza di chi le crede capaci di libertà nasconderà il potere di chi le controlla. La congettura fondamentale della "disciplina AI" è semplicemente falsa. Utile ad ottenere fondi, utile a buttare fumo negli occhi dei legislatori, utile a deresponsabilizzare i potenti... ma falsa. E' questo il tipo di fraintendimento fondamentale che l'uso di metafore antropomoriche, evocative quanto fantascientifiche, causa alla ricerca nella nostra disciplina.
Semplicemente perché esistono sempre infinite soluzioni sbagiate ad un qualsiasi problema che rendono la probabilità di azzeccarne una giusta prossima a zero.
D'altro canto, questa è la funzione della statistica. Permetterci di modellare e comprendere sistemi sempre più complessi.
Non sono del tutto d’accordo, la statistica ci permette solo di estrarre indicatori dai dati, ma la comprensione è affidata agli scienziati che interpretano quegli indicatori. Affermi che l’AI non apprende, ma fa calibrazioni di modelli sui dati. Ciò è ancor più vero della statistica, che non produce modelli predittivi, ma effettua interpolazioni o calcola correlazioni. E sappiamo che, dati sufficienti dati, si possono ricava correlazioni per giustificare qualunque interpretazione.
Di conseguenza con sufficienti dati, si può produrre qualsiasi "sistema predittivo". Non spiegarlo o giustificarlo però. Definire "modello" il risultato della calibrazione di una rete neurale artificiale è sbagliato perché, contrariamente ad un modello statistico, quelle matrici numeriche non sono interpretabili da un essere umano. Sono l'equivalente di un eseguibile binario per una macchina virtuale ignota determinata dalla topologia della rete. Ed è questo il limite fondamentale di queste tecniche. NON sono strumenti scientifici perché non permettono di osservare meglio un fenomeno complesso come un microscopio permette di osservare un fenomeno molto piccolo o un telescopio permette di osservare un fenomeno molto lontano. Quando lo diventeranno, quando ci permetteranno di comprendere le logiche che riproducono dopo essere state programmate statisticamente (o "calibrate") diventeranno uno strumento VERAMENTE potente ed utile, senza essere pericoloso. Potremo usarle per indentificare le dinamiche di fenomeni complessi ed eventualmente correggerle. E potendo leggere l'algoritmo programmato statisticamente potremo riscriverlo in modo esplicito e sicuro. Ma la fretta di usarle per ottenere denaro, potere ed irresponsabilità, o la velleitaria ricerca di una AGI capace di sostituire il 99.9% in eccesso della popolazione mondiale, sta fossilizzando la ricerca sulla creazione black box sempre più complesse ma incapaci di accrescere la nostra comprensione dell'universo. E' piutoosto ovvio se ci pensi: la scienza è necessariamente di tutti, mentre le black box possono restare in mano a pochi. Anche per questo è importante trovare il modo spiegare esattamente e verificabilmente l'algoritmo sintetizzato da una rete neurale. Non per abbindolare legislatori ed utenti come fa l'AI Ethics. Ma per offrire all'Umanità un nuovo e potentissimo strumento di indagine scientifica che ci permetterebbe di esplorare ciò che sfugge alle nostre limitate prospettive umane. Giacomo