Grazie Antonio del contributo interessante, la definizione Russell and Norvig è certamente accurata ma forse troppo generosa: un termostato o uno scaldabagno ci cadono in pieno. Pensando a un comportamento "intelligente" (nel senso comune) richiediamo all'agente artificiale anche una certa capacità di previsione fondata su una razionalità che include un modello più o meno dinamico del mondo e una capacità di scelta sul modo di raggiungere uno stato del mondo desiderato selezionando un comportamento commisurato alla capacità di agire e percepire dell'agente. Questa è una proprietà che non chiediamo a uno scaldabagno ordinario. Gli elementi di selezione e modellazione sono presenti nella teorizzazione "evolutiva" di J.Albus [1] (sorprendentemente assente dalla bibliografia di R&N) e e introdotti sin da Ashby nel '57[2]. Un altro elemento assente è che un comportamento (naturale o artificiale) è intelligente *per qualcuno*, ovvero è giudicato intelligente da un soggetto che detiene un modello del mondo e una "libreria" di comportamenti adeguati. I comportamenti sono cioè sempre adeguati /per qualcuno/: l'attore stesso da solo (se è sufficientemente autonomo), chi lo ho costruito o programmato (se è artificiale), e chi lo controlla (anche se è naturale ma non del tutto autonomo - ad esempio un soldato). Un giudizio finale di adeguatezza (ex-post) del comportamento tenuto è spesso opera della composizione di questi giudizi parziali. Nella definizione dell'intelligenza va dunque incluso l'attore o gli attori che operano il giudizio di adeguatezza del comportamento più o meno intelligente. E in questa direzione condivido pienamente il vostro invito che l'agente sia un “socially responsible agent”, cioè che i comportamenti dell'agente possano essere o giudicati adeguati dalla collettività sul cui ambiente l'agente opera o dal soggetto su cui opera direttamente: l'agente (ma anche chi lo costruisce e chi lo controlla) deve "rispondere" dell'azione. Questo aspetto di giudizio introduce una soggettività invisa alle scienze "esatte" che però è già nascosto nella "misura" di Russell e Norvig. Il termine /misura/ ha un connotato di oggettività che nei fatti non c'è: la funzione di misura da massimizzare è opera della scelta di chi costruisce l'agente: giudizio oculato se va bene o pregiudizio (bias) anche inconsapevole se va male. Questo apre però un problema nel caso degli agenti artificiali: a chi questa intelligenza/capacità di previsione/razionalità deve la sua *lealtà*? Ovvero da chi deve essere giudicato intelligente? (1) da chi li costruisce, (2) da chi li controlla, o (3) dal contesto sociale umano in cui sono inseriti (con tutte le difficoltà che questo giudizio comporta). Questa scelta va definita in fretta, prima che l'agente sia autonomo, in grado di produrre altri agenti e costituisca una collettività. Come Albus stesso mette in luce, "For groups of individuals, intelligence provides a mechanism for cooperatively generating biologically advantageous behavior" Un caro saluto, Alberto [1] Per Albus addirittura l'intelligenza è un "mechanism for generating biologically advantageous behavior" Albus, James S. “Outline for a Theory of Intelligence.” /Systems, Man and Cybernetics, IEEE Transactions On/ 21, no. 3 (1991): 473–509.) [2] Ashby, nelle ultime righe di Cybernetics (1957) scrive: It is also clear that many of the tests used for measuring “intel- ligence” are scored essentially according to the candidate’s power of appropriate selection. Thus one test shows the child a common object and asks its name: out of all words the child must select the proper one. Another test asks the child how it would find a ball in a field: out of all the possible paths the child must select one of the suitable few. Thus it is not impossible that what is commonly referred to as “intellectual power” may be equivalent to “power of appropriate selection”. Indeed, if a talking Black Box were to show high power of appropriate selection in such matters—so that, when given difficult problems it persistently gave correct answers—we could hardly deny that it was showing the behavio- ral equivalent of “high intelligence”. On 01/04/2019 09:10, Antonio Vetro' wrote:
In un recente articoletto (un “conceptual paper”, https://nexa.polito.it/node/1531 e qui <https://www.emeraldinsight.com/doi/abs/10.1108/DPRG-08-2018-0049> ) , abbiamo preso come riferimento la definizione di Russell & Norvig, 2010 (AI: A modern approach). Sebbene abbiamo criticato nell'articolo l’equivalenza di razionalità con intelligenza, Credo che quella sia una definizione che calza bene molti sistemi attuali di AI
"We refer to AI following the mainstream definition of Russell and Norvig (Russell and Norvig, 2010): it is “the study of designing and building intelligent agents (p.30), where “agent” is “anything that can be viewed as perceiving its environment through sensors and acting upon that environment through actuators” (p.34). An intelligent agent “takes the best possible action in a situation” (p.30), i.e. it is a rational agent the one which, for each possible percept sequence, is supposed to “select an action that is expected to maximise its performance measure, given the evidence provided by the percept sequence and whatever built-in knowledge the agent has” (p.37). "
Un caro saluto, antonio
Il giorno 30 mar 2019, alle ore 20:39, Giacomo <giacomo@tesio.it <mailto:giacomo@tesio.it>> ha scritto:
On March 30, 2019 5:53:43 PM UTC, Stefano Quintarelli <Stefano@Quintarelli.it <mailto:Stefano@Quintarelli.it>> wrote:
Insisto a ritenere che nel 1955 il termine non fosse stato usato per ragioni di marketing.
Beh, in effetti dopo due guerre mondiali appena concluse, l'intelligenza umana non doveva sembrare così irraggiungibile. ;-)
A meno di cambiare la definizione di "marketing"
Non credo sia necessario.
Sai quante articoli su PubMed mia moglie scarta come non affidabili solo sulla base dei conflitti di interesse degli autori?
Cosa fanno le aziende farmaceutiche che li finanziano? Beneficenza?
Non so se il rapporto fra ricerca e denaro sia mai stato semplice, ma se non lo è adesso.... figurati durante la guerra fredda!
Naturalmente oggi si potrebbe stabilire meccanismi per finanziare la ricerca più efficaci, per disaccoppiare la ricerca dalla provenienza dei fondi privati che la rendono possibile.
Ma abbiamo consapevolezza del problema? Abbiamo la volontà di risolverlo?
Giacomo PS: scusate l'off-topic, ma proprio oggi mia moglie mi faceva notare come l'etica nelle professioni intellettuali non è un problema risolto ben al di là dell'informatica. La medicina ha migliaia di anni eppure... spesso si fa finta do non vedere per non cedere allo sconforto.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa