La bellezza sta negli occhi di chi guarda. Un aneddoto. Una volta per aiutare la mia bimba ad allenarsi con le addizioni, in prima elementare, la presi sulle gambe e scrissi un brevissimo script python che le proponeva due numeri e le chiedeva la somma. Lei osservava attenta il papà, cercando di capire cosa scrivessi. Potete immaginare che ci vollero pochi minuti. Finito, la feci provare il nuovo giochino. Dopo 3 addizioni, scappò via piangendo dalla mamma! Dopo una buona dose di coccole, emerse che "per colpa mia" aveva capito di essere stupida. Il computer, in pochi minuti, aveva imparato a fare le addizioni. E io dico sempre che i computer sono stupidi. Quindi cos'era lei, che faceva tanta fatica? Torniamo a noi. Abbiamo inventato un algoritmo in grado di approssimare statisticamente una qualsiasi funzione. Poi prendiamo una funzione complessa, ben definita, per la quale disponiamo di grandi quantità di dati, e configuriamo questo algoritmo per approssimare l'output che un botanico fornirebbe. Poi guardiamo il nostro algoritmo, tutto bello configurato per la demo, e diciamo "oh, come è intelligente!" :-D La bellezza sta negli occhi di chi guarda! La nostra capacità di "pattern matching" ci sta fuorviando. E il marketing non aiuta. ;-) Siamo abituati a classificare come intelligente l'attività del botanico che classifica il fiore. Lo vediamo fare al computer e questo "ci sembra" intelligente. Più intelligenti di noi, se non lo sappiamo fare. E proprio come la mia bimba, ci spaventiamo. Fino a quando non capiamo come funziona. Il 11 gennaio 2018 08:20, Stefano Quintarelli <Stefano@quintarelli.it> ha scritto:
Certo, si potrebbe dire "vietato usare ciò che non è spiegabile", ma non è realistico.
Ve lo immaginate se lo sapessero le aziende? "Ueh ragazzi, fatemi un freno con una rete neurale. Così se non frena possiamo dire che non si può spiegare..." Ma stiamo scherzando? :-D Una rete neurale è un programma. Sostenere che è pericoloso rischia di deviare l'attenzione dalla pericolosità di chi lo usa!
Valga per tutti l'esempio della mia mozione in materia di armi letali autonome, respinta. http://webtv.camera.it/archivio?legislatura=17&seduta=898&intervento=457662 In estrema sintesi, credo che ogni servizio AI dovrebbe dichiarare per cosa è ottimizzato e che debbano esserci conseguenze civili (E al limite penali) in caso di scostamenti che producano danni. Si può obiettare che il numero di casi trattati potrebbe essere insufficiente a decidere se lo scostamento esiste.
Esatto.
È improbabile
Affermazione molto divertente in un contesto statistico. :-D Comunque non solo è probabile, è scontato. Le numerosità di cui stiamo parlando sono tali da richiedere numeri enormi per verificare se una minoranza e discriminata. Non le chiamiamo mica "minoranze" per niente! E' perché sono pochi! ;-)
comunque in questo caso eventuali esternalità negative sarebbero ridotte
Vallo a dire al ingegnere 50enne scartato per l'età, o alla lavoratrice che percepisce lo stipendio inferiore. Sì, magari è solo UNA persona. Ma è una PERSONA!
Anche qui, nessuna pretesa di certezza algoritmica (come non esiste in nessun ambito umano, tantomeno giudiziario).
Perdonami, ma trattandosi del mio mestiere, non sopporto questo tipo di vaghi ed evocativi riferimenti all'informatica. Se un programma è troppo complicato da debuggare, lo si riscrive. Se costa troppo, lo si sostituisce. E' piuttosto semplice approcciare il problema legislativo: basta chiedere a chi sviluppa, configura o usa il programma di esserne responsabili. Responsum Abilem: capace di rispondere, di spiegare. Si tratta SEMPRE di macchine a stati. Allo stesso stato di partenza e allo stesso input corrisponde SEMPRE lo stesso output. Quindi, per quanto costoso possa essere, è sempre possibile. E' un rischio di impresa come un'altro. Giacomo