Il 30/11/23 16:24, Daniela Tafani<daniela.tafani@unipi.it> ha scritto:
Date: Thu, 30 Nov 2023 15:24:13 +0000 From: Daniela Tafani<daniela.tafani@unipi.it> Subject: [nexa] Postprint: Do AI systems have politics? Predictive optimisation as a move away from the rule of law, liberalism and democracy
Buon pomeriggio,
vi sottopongo il postprint di un mio articolo che è stato accettato da "Ethics & Politics",
Do AI systems have politics? Predictive optimisation as a move away from the rule of law, liberalism and democracy.
Questo è l'abstract:
In predictive optimisation systems, machine learning is used to predict future outcomes of interest about individuals, and these predictions are used to make decisions about them. Despite being based on pseudoscience, not working and unfixably harmful, predictive optimisation systems are still used by private companies and by governments. As they are based on the assimilation of people to things, predictive optimisation systems have inherent political properties that cannot be altered by any technical design choice: the initial choice about whether or not to adopt them is therefore decisive, as Langdon Winner wrote about inherently political technologies. The adoption of predictive optimisation systems is incompatible with liberalism and the rule of law because it results in people not being recognised as self-determining subjects, not being equal before the law, not being able to predict which law will be applied to them, all being under surveillance as ‘suspects’ and being able or unable to exercise their rights in ways that depend not on their status as citizens, but on their contingent economic, social, emotional, health or religious status. Under the rule of law, these systems should simply be banned.
Qui il testo completo: https://doi.org/10.5281/zenodo.10229060
Vi sarò grata di qualsiasi osservazione. ho letto l'articolo. trovo che raccolga e intrecci in modo molto efficace i fili di questioni di grande rilevanza. due osservazioni, se posso
là dove scrivi
Considering all this, one cannot but agree with those who observe that the use of ML systems for decision-making purposes in areas relevant to people's lives is tantamount to the creation, through administrative decisions, of “almost human rights-free zones”.(94) The development, sale and use of predictive optimisation systems is exploiting a “legal bubble”,(95) ie, it is taking place in violation of legally protected rights, betting on a subsequent legal rescue in the name of the inevitability of technological innovation(96). alla nota 95 citi un articolo di Marco Giraudo et al. sulle legal bubbles.
un anno prima, in Giraudo, Marco. «On Legal Bubbles: Some Thoughts on Legal Shockwaves at the Core of the Digital Economy». /Journal of Institutional Economics/ 18, fasc. 4 (agosto 2022): 587–604. https://doi.org/10.1017/S1744137421000473. Giraudo aveva una prospettiva ottimistica perché, scriveva, le legal bubbles alla fine scoppiano, si dissolvono, in quanto l'azione legislativa anche se con passo più lento di quello della tecnologia, attiva e regolamenta. mentre nell'articolo che citi ora Giraudo, Marco, Eduard Fosch-Villaronga, e Gianclaudio Malgieri. «Competing Legal Futures». SSRN Scholarly Paper. Rochester, NY, 1 giugno 2023. https://papers.ssrn.com/abstract=4499785. Giraudo et al,. paiono più preoccupati del futuro perché il modello che vede la cooperazione degli stati con le aziende a fini regolativi si basa a loro avviso su un'eccessiva fiducia nella buona volontà degli attori privati: "the EU Commission is adopting an economic primacy approach, showing that a kind of deference to corporate expertise and techno epistemic communities, especially when closely linked to corporate interests, is still very influential and conducive to the repetition of regulatory failures." ritengo che la legislazione sia in termini generali e di principio la risorsa da utilizzare per indirizzare in modo corretto le forze che operano nella società, ma questa cooperazione dei regolatori con i 'regolandi' è un passo nel riconoscimento che le grandi aziende del mondo digitale (che sia hanno strapotenza economica sia sono dativore) si comportano come stati nazionali e gli stati nazionali 'storici' gli riconoscono questa status, nei fatti. Marcus, Gary. «Critical national security questions should not be decided unilaterally by unelected tech leaders». Substack newsletter. /Marcus on AI/ (blog), 28 novembre 2023. https://garymarcus.substack.com/p/critical-national-security-questions?publi... <https://garymarcus.substack.com/p/critical-national-security-questions?publi...>. l'altro tema enorme, presente solo in 2 punti del tuo articolo, sono le prospettive di introduzione di sistemi di IA per gestire la scuola, la formazione, l'educazione: la formazione ha al centro la concezione che l'individuo sia aiutato a scoprire le sue qualità e a svilupparle in modo - appunto - individuale e originale; e che la società si giova di questa proliferazione di diversità. gestirla con sistemi di IA ne è la negazione. forma individui standard, butta fuori quelli irregolari, e per chi comanda non ci saranno più problemi. una distopia realizzata secondo me questo è un campo di azione di contrasto all'IA particolarmente importante. buon w.e. Maurizio ------------------------------------------------------------------------ la Repubblica promuove lo sviluppo della cultura e la ricerca scientifica e tecnica. la Repubblica detta le norme generali sull'istruzione ed istituisce scuole statali per tutti gli ordini e gradi. Costituzione della Repubblica Italiana, art. 9 e 33 ------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli