Il 30/11/23 16:24, 
Daniela Tafani <daniela.tafani@unipi.it>
ha scritto:
Date: Thu, 30 Nov 2023 15:24:13 +0000
From: Daniela Tafani <daniela.tafani@unipi.it>
Subject: [nexa] Postprint: Do AI systems have politics? Predictive
	optimisation as a move away from the rule of law, liberalism and
	democracy

Buon pomeriggio,

vi sottopongo il postprint di un mio articolo che è stato accettato da 
"Ethics & Politics",

Do AI systems have politics? Predictive optimisation as a move away from
 the rule of law, liberalism and democracy.

Questo è l'abstract:

In predictive optimisation systems, machine learning is used to predict 
future outcomes of interest about individuals, and these predictions are
 used to make decisions about them. Despite being based on 
pseudoscience, not working and unfixably harmful, predictive 
optimisation systems are still used by private companies and by 
governments. As they are based on the assimilation of people to things, 
predictive optimisation systems have inherent political properties that 
cannot be altered by any technical design choice: the initial choice 
about whether or not to adopt them is therefore decisive, as Langdon 
Winner wrote about inherently political technologies. The adoption of 
predictive optimisation systems is incompatible with liberalism and the 
rule of law because it results in people not being recognised as 
self-determining subjects, not being equal before the law, not being 
able to predict which law will be applied to them, all being under 
surveillance as ‘suspects’ and being able or unable to exercise their 
rights in ways that depend not on their status as citizens, but on their
 contingent economic, social, emotional, health or religious status. 
Under the rule of law, these systems should simply be banned.

Qui il testo completo:
https://doi.org/10.5281/zenodo.10229060

Vi sarò grata di qualsiasi osservazione.
ho letto l'articolo.
trovo che raccolga e intrecci in modo molto efficace i fili di questioni di grande rilevanza.
due osservazioni, se posso

là dove scrivi
Considering all this, one cannot but agree with those who observe that the use of ML systems for decision-making purposes in areas relevant to people's lives is tantamount to the creation, through administrative decisions, of “almost human rights-free zones”.(94) The development, sale and use of predictive optimisation systems is exploiting a “legal bubble”,(95) ie, it is taking place in violation of legally protected rights, betting on a subsequent legal rescue in the name of the inevitability of technological innovation(96).
alla nota 95 citi un articolo di Marco Giraudo et al. sulle legal bubbles.

un anno prima, in
Giraudo, Marco. «On Legal Bubbles: Some Thoughts on Legal Shockwaves at the Core of the Digital Economy». Journal of Institutional Economics 18, fasc. 4 (agosto 2022): 587–604. https://doi.org/10.1017/S1744137421000473.
Giraudo aveva una prospettiva ottimistica perché, scriveva, le legal bubbles alla fine scoppiano, si dissolvono, in quanto l'azione legislativa anche se con passo più lento di quello della tecnologia, attiva e regolamenta.

mentre nell'articolo che citi ora
Giraudo, Marco, Eduard Fosch-Villaronga, e Gianclaudio Malgieri. «Competing Legal Futures». SSRN Scholarly Paper. Rochester, NY, 1 giugno 2023. https://papers.ssrn.com/abstract=4499785.
Giraudo et al,. paiono più preoccupati del futuro perché il modello che vede la cooperazione degli stati con le aziende a fini regolativi si basa a loro avviso su un'eccessiva fiducia nella buona volontà degli attori privati: "the EU Commission is adopting an economic primacy approach, showing that a kind of deference to corporate expertise and techno epistemic communities, especially when closely linked to corporate interests, is still very influential and conducive to the repetition of regulatory failures."

ritengo che la legislazione sia in termini generali e di principio la risorsa da utilizzare per indirizzare in modo corretto le forze che operano nella società, ma questa cooperazione dei regolatori con i 'regolandi' è un passo nel riconoscimento che le grandi aziende del mondo digitale (che sia hanno strapotenza economica sia sono dativore) si comportano come stati nazionali e gli stati nazionali 'storici' gli riconoscono questa status, nei fatti.
Marcus, Gary. «Critical national security questions should not be decided unilaterally by unelected tech leaders». Substack newsletter. Marcus on AI (blog), 28 novembre 2023. https://garymarcus.substack.com/p/critical-national-security-questions?publication_id=888615&utm_campaign=email-post-title&r=3mnng.

l'altro tema enorme, presente solo in 2 punti del tuo articolo, sono le prospettive di introduzione di sistemi di IA per gestire la scuola, la formazione, l'educazione: la formazione ha al centro la concezione che l'individuo sia aiutato a scoprire le sue qualità e a svilupparle in modo - appunto - individuale e originale; e che la società si giova di questa proliferazione di diversità. gestirla con sistemi di IA ne è la negazione. forma individui standard, butta fuori quelli irregolari, e per chi comanda non ci saranno più problemi. una distopia realizzata
secondo me questo è un campo di azione di contrasto all'IA particolarmente importante.

buon w.e.
Maurizio

 








la Repubblica promuove lo sviluppo della cultura e la ricerca scientifica e tecnica.
la Repubblica detta le norme generali sull'istruzione ed istituisce scuole statali per tutti gli ordini e gradi.
Costituzione della Repubblica Italiana, art. 9 e 33

Maurizio Lana
Università del Piemonte Orientale
Dipartimento di Studi Umanistici
Piazza Roma 36 - 13100 Vercelli