On 02/04/2019, Alberto Cammozzo <ac+nexa@zeromx.net> wrote:
Grazie Antonio del contributo interessante,
la definizione Russell and Norvig è certamente accurata ma forse troppo generosa: un termostato o uno scaldabagno ci cadono in pieno.
E anche Notepad! ;-)
Pensando a un comportamento "intelligente" (nel senso comune) richiediamo all'agente artificiale anche una certa capacità di previsione fondata su una razionalità che include un modello più o meno dinamico del mondo e una capacità di scelta sul modo di raggiungere uno stato del mondo desiderato selezionando un comportamento commisurato alla capacità di agire e percepire dell'agente.
Verissimo. Nota però come tutti i termini che usi "capacità di previsione", "modello del mondo", "capacità di scelta" e "mondo desiderato" presuppongono consapevolezza. In altri termini, per poter parlare di intelligenza siamo COSTRETTI a proiettare la nostra esperienza della stessa sulle macchine. Russell e Norvig (ed in modo diverso Legg e Hutter) cercano di evitare (nascondere? negare? :-D) questa proiezione definendo l'intelligenza solo attraverso la sua interazione con l'esterno. Per la verità Legg e Hutter parlano esplicitamente di intelligenza anche in termini di obbiettivi nella definizione informale di Intelligenza "Intelligence measures an agent’s ability to achieve goals in a wide range of environments." ma nella definizione formale, gli scopi dell'agente (interni ed ignoti) vengono convenientemente sostituiti con la ricompensa (esterna ed osservabile).
Un altro elemento assente è che un comportamento (naturale o artificiale) è intelligente *per qualcuno*, ovvero è giudicato intelligente da un soggetto che detiene un modello del mondo e una "libreria" di comportamenti adeguati.
Di nuovo, tu parli del funzionamento interno (modello, libreria di comportamenti adeguati) mentre il tentativo dell'intelligenza artificiale è negare la rilevanza di questo funzionamento interno, per non doversi confrontare con esso (e non essere costretta a spiegarlo semanticamente).
I comportamenti sono cioè sempre adeguati /per qualcuno/: l'attore stesso da solo (se è sufficientemente autonomo), chi lo ho costruito o programmato (se è artificiale), e chi lo controlla (anche se è naturale ma non del tutto autonomo - ad esempio un soldato). Un giudizio finale di adeguatezza (ex-post) del comportamento tenuto è spesso opera della composizione di questi giudizi parziali. Nella definizione dell'intelligenza va dunque incluso l'attore o gli attori che operano il giudizio di adeguatezza del comportamento più o meno intelligente.
Perfettamente d'accordo. Ma nel processo di disumanizzazione dell'intelligenza, il giudizio è delegato alla funzione obbiettivo (quando esiste).
E in questa direzione condivido pienamente il vostro invito che l'agente sia un “socially responsible agent”, cioè che i comportamenti dell'agente possano essere o giudicati adeguati dalla collettività sul cui ambiente l'agente opera o dal soggetto su cui opera direttamente: l'agente (ma anche chi lo costruisce e chi lo controlla) deve "rispondere" dell'azione.
L'agente può risponderne solo se è un essere umano. La responsabilità deve essere SEMPRE ricondotta ad un essere umano semplicemente perché è un costrutto specifico della società umana. Se il tuo scaldabagno ti procura autonomamente un ustione di terzo grado, non ne risponde lui, ma il tuo idraulico o chi lo ha costruito. Spero, anche in termini penali.
Questo aspetto di giudizio introduce una soggettività invisa alle scienze "esatte" che però è già nascosto nella "misura" di Russell e Norvig. Il termine /misura/ ha un connotato di oggettività che nei fatti non c'è: la funzione di misura da massimizzare è opera della scelta di chi costruisce l'agente: giudizio oculato se va bene o pregiudizio (bias) anche inconsapevole se va male.
Non avrei saputo dirlo meglio! La misura da massimizzare è una decisione umana. Uber ha scelto di uccidere Elaine Herzberg per massimizzare il confort dei passeggeri. Non solo! Anche l'input del sistema (le dimensioni da considerare, i sensori da installare) e l'output (gli attuatori, le UI etc) sono oggetto di decisione umana. La cosa non dovrebbe sorprenderci, parliamo di artefatti! Sono cose, totalmente sotto il nostro dominio (nostro nel senso di noi che le creiamo). E dunque noi dobbiamo risponderne.
Questo apre però un problema nel caso degli agenti artificiali: a chi questa intelligenza/capacità di previsione/razionalità deve la sua *lealtà*? Ovvero da chi deve essere giudicato intelligente? (1) da chi li costruisce, (2) da chi li controlla, o (3) dal contesto sociale umano in cui sono inseriti (con tutte le difficoltà che questo giudizio comporta).
Ma PERCHE' dobbiamo giudicarne l'intelligenza? Non sarebbe più utile giudicarne l'utilità? La sicurezza? L'efficienza? L'efficacia? L'economicità? A quale scopo dobbiamo proiettare la nostra esperienza soggettiva su una cosa?
Questa scelta va definita in fretta, prima che l'agente sia autonomo, in grado di produrre altri agenti e costituisca una collettività.
Se parliamo di autonomia assoluta, abbiamo ancora qualche centinaio di anni per ragionarci. Forse qualche migliaio, se continuiamo con questo approccio. Per ora il problema maggiore sono le persone. https://xkcd.com/1968/
Come Albus stesso mette in luce, "For groups of individuals, intelligence provides a mechanism for cooperatively generating biologically advantageous behavior"
Il cannibalismo sessuale (vedi https://en.wikipedia.org/wiki/Sexual_cannibalism ) rientra perfettamente in questa definizione. Ma non ditelo alle femministe USA! :-D
Un caro saluto,
Alberto
A presto! Giacomo