Il giorno 29 marzo 2018 09:37, Alberto Cammozzo <ac+nexa@zeromx.net> ha scritto:
On 28/03/2018 22:46, Giacomo Tesio wrote:
No. Un computer è una macchina deterministica.
Il suo comportamento può essere estremamente costoso da spiegare, ma è SEMPRE possibile spiegarlo disponendo dell'intero input dell'algoritmo e di tempo e competenze sufficienti.
Ma COSTOSO, non vuol dire impossibile. E' un costo di impresa, da mettere accanto alla furto/incendio per le auto aziendali.
Giacomo,
per gli scopi di attribuzione di responsabilità occorre che il comportamento del sistema autonomo sia prevedibile, non che il sistema sia deterministico.
Se il sistema è determinisco e disponi (perché non li butti via) di TUTTE le informazioni pertinenti, il sistema è precisaente prevedibile.
E sappiamo che essere deterministico non implica essere prevedibile, cioè calcolabile in modo esatto in tutti gli stati presenti e futuri.
Eh? Ma cosa dici! Se hai tutte le informazioni e non ci sono componenti quantistiche, puoi prevedere tutto. Anzi, prevedere, in questo caso è un termine fuorviante. Se hai tutte le informazioni pertinenti e non ci sono componenti quantistiche, puoi CALCOLARE tutto.
Un sistema complesso, non lineare, può mostrare proprietà emergenti di tipo caotico che possono non essere calcolabili, o esserlo solo in modo limitato ed estremamente costoso. Il tempo metereologico è certamente deterministico, ma è prevedibile solo in modo limitato e costoso.
Pessimo esempio. Anzitutto, la metereologia non è un artefatto umano (e per fortuna, altrimenti su alcune case ci sarebbe sempre il sole! :-D) Inoltre non disponiamo di tutte le funzioni.
Oltre una certa soglia, è imprevedibile.
No è solo ESTREMAMETE costoso.
I computer sono certamente deterministici, ma sistemi complessi come certe AI possono esibire comportamenti assai imprevedibili, come dice Roberto Dolci. I robot, esposti alla complessità di un ambiente ricco di variabili la cui misurabilità è finita, lo sono ancora di più.
Infatti nel momento in cui DECIDI di metterli nell'ambiente, hai tutto il CONTROLLO necessario per decidere di NON metterli nell'ambiente. Se ti ASSUMI la responsabilità di metterli nell'ambiente SENZA SAPERE PREVEDERE come si comporteranno, è un problema tuo. Hai una scelta. Se la eserciti, poi ne DEVI rispondere.
Si leggono sempre più spesso studi sulla caoticità dei sistemi deep learning. <https://medium.com/intuitionmachine/how-to-explain-deep-learning-using-chaos...>
Grazie del link. Tutti OTTIMI ARGOMENTI per USARE ESTREMA CAUTELA con queste tecnologie. In fondo, si tratta solo di avere un po' di pazienza e lucidità. Ne è un esempio lampante AlphaGo Zero. Fino a qualche anno fa, mi avresti detto che si trattava di una cosa IMPOSIBILE. Di un problema INTRATTABILE dalle macchine. E con le giuste motivazione, l'UOMO, ha trovato delle soluzioni a quello specifico problema. Lo stesso vale per debuggare una rete neurale artificiale in Deep Learning. Se ci mancano gli strumenti per farlo, bisogna solo ASPETTARE di averli creati. Ma anche quando li avremo, chi immette nell'ambiente un artefatto ne assumerà la responsabilità. Perché ha sempre la libertà di NON immetterlo nell'ambiente se preferisce evitare quella responsabilità. Giacomo