On 30/11/2019, Giulio De Petra <giulio.depetra@gmail.com> wrote:
Siamo da sempre abituati, quando abbiamo a che fare con macchine, dalle più semplici alle più sofisticate, a pensare che a un errore della macchina corrisponda un suo cattivo funzionamento. Deriva da questo che se siamo capaci di riparare la macchina l’errore non si ripeterà. Con sistemi di AI non è così. Macchine perfettamente funzionanti possono generare errori.
Discorso complesso. In informatica il concetto di errore/eccezione e quello di bug sono effettivamente distinti, ma sono diversi dall'accezione comune che tende ad essere da un lato ambigua dall'altro adiacente. L'errore (o l'eccezione) è un modo di descrivere il verificarsi di una situazione prevista ma non desiderata durante l'esecuzione di un programma. Descrivere tale condizione ha due finalità: permettere di spiegare il comportamento del sistema agli esseri umani e permettere al programma stesso di gestire la situazione. Per diverse ragioni, una modellazione precisa ed esaustiva degli errori e la loro corretta gestione è uno degli aspetti che distingue un programmatore esperto da uno appena uscito dall'università. La gestione degli errori è una delle questioni complesse e delicate dello sviluppo software. E lo è per gli esseri umani. Dunque, tecnicamente, l'affermazione che hai riportato è corretta: un software perfettamente funzionante può produrre errori, tipicamente chiedendo all'operatore/utente come gestirli. I bug sono invece di tutt'altra natura: sono errori del programmatore che causano comportamenti scorretti del software, ovvero comportamenti non previsti e non desiderati. Perché, per definizione, un software è "perfettamente funzionante" se e solo se fa quello che vogliamo. Nel caso delle AI siamo di fronte a bug o a errori? A bug. Un po' come un programmatore alle prime armi, chi ha realizzato quel software non modella e non gestisce le condizioni non desiderate che potrebbero verificarsi durante l'esecuzione. Ma mentre per il software comune riconosciamo come NEGLIGENZA questo comportamento, basta nominare l'intelligenza artificiale per essere esonerati dal biasimo collettivo. In realtà, nel caso della AI la responsabilità è molto più grave. Perché sai che il tuo sistema è fallato e lo metti in commercio lo stesso solo perché nessuno è in grado di misurare QUANTO sia fallato.
Non c’è niente da riparare. Ma forse molto da proteggere.
Credo che la questione sia ancora più semplice. Nessuno viene costretto a sviluppare e vendere SALAMI. Chi non può garantirne il CORRETTO funzionamento (ovvero che facciano esattamente ciò che devono), può occuparsi di altro. Per incentivare questa dinamica di mercato è sufficiente stabilire che chi distribuisce servizi o prodotti basati su una AI sia responsabile penalmente e civilmente dei danni che questi procurano se non è in grado di dimostrare che la responsabilità è di qualcun altro. Giacomo