Se leggo e intendo bene, credo che la questione non riguardi i metodi o gli algoritmi, ma la loro applicazione in certi ambiti, in particolare quando vi siano decisioni da prendere in base alla previsione dei comportamenti umani. Tutti i sistemi di machine learning (non bisogna scomodare le reti neurali, bastano quelle bayesiane degli anni 80) si basano sull'assunzione che i processi modellati siano autoregressivi (regolari) e stabili (non creativi). Queste assunzioni non sono adeguate al comportamento umano, che è (o si deve ritenere) libero. Tuttavia, l'ottimizzazione predittiva può dare buoni risultati anche applicata a certi fenomeni sociali. Ricordo di aver partecipato a un convegno in cui una società italiana presentava un sistema predittivo in grado di suggerire dove si sarebbe verificato un evento criminoso (una rapina) in base all'osservazione dei precedenti. Banalmente, era in grado di capire se in una certa zona stesse operando una banda. Certo: la banda era libera di cambiare quartiere (e di sicuro l'avrebbe fatto se avesse saputo del sistema) ma semplicemente non lo faceva. Anche qui il punto è quello di capire se un metodo è efficace nel contesto in cui si applica, e se la sua applicazione non lede i diritti delle persone. Nel caso del credito, ad esempio, è un diritto sapere perché viene eventualmente negato (auditability); insomma: è meglio un foglio excel :-) G. On Mon, 20 Jan 2025 at 00:11, Alfredo Bregni <abregni@iperv.it> wrote:
Buonasera.
Non è che riproponendo proprio l'articolo che critico -- NON nel contenuto, MA *in due diversi ambiti* (politico e tecnico) fra loro correlati -- si risponde efficacemente alla mia critica, *che è quella di voler continuare a colpevolizzare il coltello*.
La predictive optimization può essere la panacea o il peggiore dei mali, ma io contesto la condanna dei suoi impatti politici, poiché *qualunque* proiezione del futuro *ha comunque i medesimi difetti*. Il massimo che un prodotto marcato "AI" può fare di male, è che gli utilizzatori "si fidino" troppo di esso e dei risultati che dà, e lo utilizzino quindi in maniera "cieca" / superficiale, MA -- non troppo "incidentalmente" -- questa è la medesima critica avanzata a suo tempo per lo spredsheet.
E non critico il giudizio tecnico espresso sulla predictive optimization -- della quale sinceramente mi interessa poco (...e quindi mi interessa poco anche la difesa del relativo giudizio) -- ma il fatto che che si continui a discutere di strumenti, quando il vero problema è SEMPRE altrove: - Se si continua a perseguire l'AI ("vera" = AGI, o fasulla ...che però serve) -- parlo di SCIENZA / TECNOLOGIA -- è probabile che questo sia perché si cerca uno strumento che aiuti a risolvere problemi; è quindi normale che appaiano nuovi strumenti, non sempre subito perfettamente a punto; - Se poi, al di là degli aspetti tecnici (e magari anche indipendentemente da questi), saranno la scelta effettiva dei problemi da risolvere e lo spirito con cui si intendono affrontare a determinarne nei fatti risultato e utilizzo (invece delle caratteristiche dello strumento), ...amen: E' SEMPRE COSI'. *Però si insiste a dimenticarlo, ...volendo continuare a giudicare il coltello*.
----- Original Message ----- *From:* Daniela Tafani <daniela.tafani@unipi.it> *To:* Alfredo Bregni <abregni@iperv.it> *Cc:* Antonio <antonio@piumarossa.it> ; nexa@server-nexa.polito.it *Sent:* Sunday, January 19, 2025 10:49 PM *Subject:* Re: [nexa] Proposta per un dibattito costruttivo sull'IA
Buonasera.
Trova qui la definizione di "Predictive Optimization" e l'elenco delle ragioni per cui non può essere assimilata ad altre forme di automazione dei processi di decisione:
https://dl.acm.org/doi/full/10.1145/3636509
Anche il mio articolo è ad accesso aperto, su Zenodo < https://zenodo.org/records/10866778> o sul sito della rivista Ethics & Politics.
Un saluto, Daniela
Il 19/01/2025 20:36, Alfredo Bregni ha scritto:
Ciao.
*Non capisco cosa si voglia dire.*
QUALUNQUE decisione (ragionata) si basa su una (o più) proiezioni dei possibili andamenti futuri; e uno stumento AI -- fatto bene, o fatto male -- si aggiunge agli altri strumenti (dei quali i più antichi e noti sono "il fiuto" dell'imprenditore e "l'ideologia" del politico, ...ovvero nessuno strumento di reale supporto alle decisioni). A parte le informazioni privilegiate di borsa -- donde il reato di insider trading quando ti beccano (...il più delle volte no) -- QUALUNQUE proiezione del futuro si basa su passato (e sul fiuto, l'ideologia, il c.d. "sentiment" degli operatori, ...e consimili amenità).
Quindi, SOLO PERCHE' ADESSO SI CHIAMA "AI", ci divertiamo a criticare l'impatto politico di questi strumenti, ...altrimenti nobili e irreprensibili [ironia]??
Grazie della precisazione, che attendo.
----- Original Message ----- *From:* Daniela Tafani <daniela.tafani@unipi.it> *To:* Antonio <antonio@piumarossa.it> ; nexa@server-nexa.polito.it *Sent:* Sunday, January 19, 2025 4:24 PM *Subject:* Re: [nexa] Proposta per un dibattito costruttivo sull'IA
Grazie, Antonio, concordo. Delle proprietà politiche è opportuno discutere con riferimento a singoli sistemi.
Ho fatto un tentativo, qualche tempo fa, con un sottoinsieme di uno dei punti dell'elenco che riporti, i sistemi di ottimizzazione predittiva, sostenendo che abbiano proprietà politiche intrinseche (non emendabili con scelte alternative di design) che li rendono incompatibili con lo Stato di diritto:
<https://zenodo.org/records/10866778>
Un saluto, Daniela
________________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Antonio < antonio@piumarossa.it> Inviato: domenica 19 gennaio 2025 16:05 A: nexa@server-nexa.polito.it Oggetto: [Junk released by Allowed List] [nexa] Proposta per un dibattito costruttivo sull'IA
Fermo restando che un dibattito "distruttivo" è comunque utile, vorrei avanzare una proposta per un diverso approccio verso la tematica. La proposta è semplice, NON nominare il termine IA (o AI), ma le SINGOLE tecnologie di intelligenza artificiale. L'Annuario statistico italiano pubblicato dall'Istat lo scorso 19 dicembre, da pag.769 in poi riporta statistiche e sintesi in merito a ricerca, innovazione e tecnologia dell'informazione. "Nel 2023 il 5,0 per cento delle imprese con almeno 10 addetti utilizza software o sistemi di intelligenza artificiale (IA)" e a seguire indica le tecnologie più diffuse all'interno di esse:
1) Automatizzare i flussi di lavoro o supportare nel processo decisionale (Robotic Process Automation, software robot che utilizzano tecnologie di IA per automatizzare le attività umane) (40,1%); 2) Estrarre conoscenza e informazione da un documento di testo (text mining) (39,3%); 3) Convertire la lingua parlata in un formato leggibile dal dispositivo informatico (riconoscimento vocale) (31%); 4) Identificare oggetti o persone sulla base di immagini (riconoscimento, elaborazione delle immagini) (30,5%); 5) Analizzare dati attraverso l'apprendimento automatico (machine learning, deep learning, reti neurali) (30%); 6) Generare linguaggio scritto o parlato (generazione del linguaggio naturale) (29,4%); 7) Consentire il movimento fisico delle macchine tramite decisioni autonome basate sull'osservazione dell'ambiente circostante (robot o droni autonomi, veicoli a guida autonoma) (17,1%).
Forse in questo modo sarà più facile posizionarsi sulla diatriba della neutralità e sull'uso (eventualmente) pro bono dell'IA.
A.
[1] https://www.istat.it/wp-content/uploads/2024/12/ASI_2024.pdf