Salve Alfredo, il mondo delle relazioni è più complesso sfumato di quanto i nomi degli oggetti facciano pensare: a dispetto dal chiamarsi sempre /coltello/ si parla di oggetti diversi per una lama da caccia, una da cucina, una da tavola. La funzione e il possibile impiego sono diversi: un coltello per spalmare il burro è perfettamente inutile per spellare un cinghiale, come un coltello da colpo da macellaio è inservibile e pericoloso per imburrare la fetta biscottata. Quello che si sta dicendo con la sensatissima 'Proposta per un dibattito costruttivo sull'IA' è che non tutti gli strumenti sono uguali, a dispetto del loro nome, e nel valutarli occorre distinguere funzione e possibile impiego, da parte di chi e per quale scopo. Cosa che si fa d'altra parte anche con i coltelli quando si deve discernere la legittimità del loro uso, visto che la legge non parla espressamente di "coltelli", ma prevede il divieto di porto di arma impropria (tra cui strumenti da punta o da taglio atti ad offendere) fuorché per giustificato motivo. Per cui nessun divieto interessa il coltello da burro, mentre il cacciatore può portare il coltello da caccia durante l’esercizio dell’attività venatoria ma rischia la sanzione penale se se lo porta allo stadio o a una manifestazione oppure la sola ammenda se se lo dimentica in tasca quando va a fare la spesa dopo la caccia. Non è tanto l'oggetto ad essere giudicato ma le relazioni tra chi lo usa, il contesto, ed il possibile scopo. La difficoltà nel valutare l'interazione di nuovi strumenti nel nostro sistema sociale di valori e leggi è in questo caso amplificata dal fatto che hanno profondo (e spesso non manifesto) effetto in molteplici ambiti. Inoltre chi li progetta, mette a disposizione e aziona davvero nella maggior parte dei casi non sono i cittadini-utenti-consumatori ma soggetti economici o politici dotato già di poteri asimmetrici. L'articolo di Daniela sostiene che un sistema di /predictive policing/ è incompatible con i valori fondanti delle società liberali. Cioè non ha possibili scopi legittimi in tale contesto, per cui usarlo è perfettamente adatto solo ad una dittatura. Per come la vedo io è come dire (senza voler "giudicare" i poveri altri coltelli innocenti) che un coltello da macellaio deve restare in macelleria e non può essere portato legittimamente in un seggio elettorale. A. On 20/01/25 00:10, Alfredo Bregni wrote:
Buonasera. Non è che riproponendo proprio l'articolo che critico -- NON nel contenuto, MA _in due diversi ambiti_ (politico e tecnico) fra loro correlati -- si risponde efficacemente alla mia critica, /_che è quella di voler continuare a colpevolizzare il coltello_/. La predictive optimization può essere la panacea o il peggiore dei mali, ma io contesto la condanna dei suoi impatti politici, poiché *qualunque* proiezione del futuro _ha comunque i medesimi difetti_. Il massimo che un prodotto marcato "AI" può fare di male, è che gli utilizzatori "si fidino" troppo di esso e dei risultati che dà, e lo utilizzino quindi in maniera "cieca" / superficiale, MA -- non troppo "incidentalmente" -- questa è la medesima critica avanzata a suo tempo per lo spredsheet. E non critico il giudizio tecnico espresso sulla predictive optimization -- della quale sinceramente mi interessa poco (...e quindi mi interessa poco anche la difesa del relativo giudizio) -- ma il fatto che che si continui a discutere di strumenti, quando il vero problema è SEMPRE altrove: - Se si continua a perseguire l'AI ("vera" = AGI, o fasulla ...che però serve) -- parlo di SCIENZA / TECNOLOGIA -- è probabile che questo sia perché si cerca uno strumento che aiuti a risolvere problemi; è quindi normale che appaiano nuovi strumenti, non sempre subito perfettamente a punto; - Se poi, al di là degli aspetti tecnici (e magari anche indipendentemente da questi), saranno la scelta effettiva dei problemi da risolvere e lo spirito con cui si intendono affrontare a determinarne nei fatti risultato e utilizzo (invece delle caratteristiche dello strumento), ...amen: E' SEMPRE COSI'. /_Però si insiste a dimenticarlo, ...volendo continuare a giudicare il coltello_/.
----- Original Message ----- *From:* Daniela Tafani <mailto:daniela.tafani@unipi.it> *To:* Alfredo Bregni <mailto:abregni@iperv.it> *Cc:* Antonio <mailto:antonio@piumarossa.it> ; nexa@server-nexa.polito.it *Sent:* Sunday, January 19, 2025 10:49 PM *Subject:* Re: [nexa] Proposta per un dibattito costruttivo sull'IA
Buonasera.
Trova qui la definizione di "Predictive Optimization" e l'elenco delle ragioni per cui non può essere assimilata ad altre forme di automazione dei processi di decisione:
https://dl.acm.org/doi/full/10.1145/3636509
Anche il mio articolo è ad accesso aperto, su Zenodo <https://zenodo.org/records/10866778> o sul sito della rivista Ethics & Politics.
Un saluto, Daniela
Il 19/01/2025 20:36, Alfredo Bregni ha scritto:
Ciao. /Non capisco cosa si voglia dire./ QUALUNQUE decisione (ragionata) si basa su una (o più) proiezioni dei possibili andamenti futuri; e uno stumento AI -- fatto bene, o fatto male -- si aggiunge agli altri strumenti (dei quali i più antichi e noti sono "il fiuto" dell'imprenditore e "l'ideologia" del politico, ...ovvero nessuno strumento di reale supporto alle decisioni). A parte le informazioni privilegiate di borsa -- donde il reato di insider trading quando ti beccano (...il più delle volte no) -- QUALUNQUE proiezione del futuro si basa su passato (e sul fiuto, l'ideologia, il c.d. "sentiment" degli operatori, ...e consimili amenità). Quindi, SOLO PERCHE' ADESSO SI CHIAMA "AI", ci divertiamo a criticare l'impatto politico di questi strumenti, ...altrimenti nobili e irreprensibili [ironia]?? Grazie della precisazione, che attendo.
----- Original Message ----- *From:* Daniela Tafani <mailto:daniela.tafani@unipi.it> *To:* Antonio <mailto:antonio@piumarossa.it> ; nexa@server-nexa.polito.it *Sent:* Sunday, January 19, 2025 4:24 PM *Subject:* Re: [nexa] Proposta per un dibattito costruttivo sull'IA
Grazie, Antonio, concordo. Delle proprietà politiche è opportuno discutere con riferimento a singoli sistemi.
Ho fatto un tentativo, qualche tempo fa, con un sottoinsieme di uno dei punti dell'elenco che riporti, i sistemi di ottimizzazione predittiva, sostenendo che abbiano proprietà politiche intrinseche (non emendabili con scelte alternative di design) che li rendono incompatibili con lo Stato di diritto:
<https://zenodo.org/records/10866778>
Un saluto, Daniela
________________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Antonio <antonio@piumarossa.it> Inviato: domenica 19 gennaio 2025 16:05 A: nexa@server-nexa.polito.it Oggetto: [Junk released by Allowed List] [nexa] Proposta per un dibattito costruttivo sull'IA
Fermo restando che un dibattito "distruttivo" è comunque utile, vorrei avanzare una proposta per un diverso approccio verso la tematica. La proposta è semplice, NON nominare il termine IA (o AI), ma le SINGOLE tecnologie di intelligenza artificiale. L'Annuario statistico italiano pubblicato dall'Istat lo scorso 19 dicembre, da pag.769 in poi riporta statistiche e sintesi in merito a ricerca, innovazione e tecnologia dell'informazione. "Nel 2023 il 5,0 per cento delle imprese con almeno 10 addetti utilizza software o sistemi di intelligenza artificiale (IA)" e a seguire indica le tecnologie più diffuse all'interno di esse:
1) Automatizzare i flussi di lavoro o supportare nel processo decisionale (Robotic Process Automation, software robot che utilizzano tecnologie di IA per automatizzare le attività umane) (40,1%); 2) Estrarre conoscenza e informazione da un documento di testo (text mining) (39,3%); 3) Convertire la lingua parlata in un formato leggibile dal dispositivo informatico (riconoscimento vocale) (31%); 4) Identificare oggetti o persone sulla base di immagini (riconoscimento, elaborazione delle immagini) (30,5%); 5) Analizzare dati attraverso l'apprendimento automatico (machine learning, deep learning, reti neurali) (30%); 6) Generare linguaggio scritto o parlato (generazione del linguaggio naturale) (29,4%); 7) Consentire il movimento fisico delle macchine tramite decisioni autonome basate sull'osservazione dell'ambiente circostante (robot o droni autonomi, veicoli a guida autonoma) (17,1%).
Forse in questo modo sarà più facile posizionarsi sulla diatriba della neutralità e sull'uso (eventualmente) pro bono dell'IA.
A.
[1] https://www.istat.it/wp-content/uploads/2024/12/ASI_2024.pdf