Grazie mille. Avevo intravisto il commento di Thomas Metzinger, ma non riuscivo a ritrovarlo.
Sui social, il commento era stato criticato da Brian O’Sullivan, altro membro del comitato, dicendo che Metzinger ha firmato il documento senza obiezioni o senza proporre una posizione di minoranza.

Ho sentito altre volte O’Sullivan prendere le difese della EC riguardo alle scelte in materia di AI.
Temo che sia un atteggiamento comune tra gli esperti: meglio assecondare chi ci finanzia piuttosto che esprimere una posizione autonoma e critica.

Purtroppo così facendo, stiamo infilandoci in un vicolo cieco.

— Beppe


On 23 Oct 2022, at 15:01, Daniela Tafani <daniela.tafani@unipi.it> wrote:

Grazie dell'osservazione. Ha ragione, sono stati anche gli esperti della Commissione.
Ci sono però testimonianze dirette del fatto che questi siano stati gentilmente invitati a farlo 
da altri esperti, con incarichi direzionali e giunti lì attraverso sliding doors.
Mi sembra perciò un classico caso di cattura del regolatore, non trova?
E la cattura culturale converge verso lo stesso obiettivo.

Riporto di seguito una parte della testimonianza di uno degli esperti europei incaricati (grassetto mio):


As a member of the expert group, I am disappointed with the result that has now been presented. The guidelines are
lukewarm, short-sighted and deliberately vague. They ignore long-term risks, gloss over difficult problems (“explainability”) with
rhetoric, violate elementary principles of rationality and pretend to know things that nobody really knows.
Together with the excellent Berlin machine learning expert Urs Bergmann (Zalando), it was my task to develop, over many
months of discussion, the “Red Lines” – non-negotiable ethical principles determining what should not be done with AI in
Europe. The use of lethal autonomous weapon systems was an obvious item on our list, as was the AI-supported assessment
of citizens by the state (social scoring) and, in principle, the use of AIs that people can no longer understand and control.
I only realized that all this was not actually desired when our friendly Finnish HLEG President Pekka Ala-Pietilä (formerly
Nokia) asked me in a gentle voice whether we could remove the phrase “non-negotiable” from the document
. In the next step,
many industry representatives and group members interested in a “positive vision” vehemently insisted that the phrase “Red
Lines” be removed entirely from the text – although it was precisely these red lines that were our mandate. 
The published
document no longer contains any talk of “Red Lines”; three were completely deleted and the rest were watered down. Instead
there is only talk of “critical concerns”.


https://www.tagesspiegel.de/politik/ethics-washing-made-in-europe-5937028.html

Analoghe pressioni hanno luogo nell'ambito privato, affinché i danni da decisioni algoritmiche siano presentati come problemi tecnici,
di moralizzazione dell'algoritmo. 
Qui una testimonianza:
https://theintercept.com/2019/12/20/mit-ethical-ai-artificial-intelligence/. 


L'abuso dell'etica è una via di fuga dalla regolazione e, al momento, funziona benissimo,
quanto al raggiungimento dell'obiettivo prefissato.

I risultati straordinari ci sono senz'altro, ma alcune decisioni oggi affidate a sistemi di ML ne sottintendono una visione magica:
animistica, antropomorfizzante, che mostra i risultati nascondendo lavoro e effetti collaterali, e affine all'astrologia.

Grazie, buona domenica,
Daniela


Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Giuseppe Attardi <attardi@di.unipi.it>
Inviato: domenica 23 ottobre 2022 12:57
A: nexa@server-nexa.polito.it
Oggetto: Re: [nexa] Articolo What's wrong with "AI ethics" narratives
 
"The question of algorithmic decisions is a political issue, which requires a political answer. Allowing algorithms to judge human beings is the same as deciding to generate exclusion and inequality on the basis of irrelevant factors for the profit of a few large private corporations."

Sono d’accordo, come lo è anche Moshe Vardi, premio ACM Knuth 2022, che sostiene che affrontare il problema dell'uso dell'AI attraverso la lente dell’etica sia fuorviante, mentre invece il problema è inerentemente un problema politico (di policies).

Però credo che a impostarlo in questo modo non siano state tanto le large corporations, a cui fa comunque comodo perché distoglie dai veri problemi di concentrazione e dominio economico, ma gli esperti selezionati dall’EC come consulenti e quelli che hanno portato alla stesura del demenziale European AI Act.
La EC, dopo un primo atteggiamento di interesse verso una strategia di sviluppo dell’AI in Europa, con la produzione del Coordinated Plan on AI del 2018, ha cambiato direzione spostando l'attenzione su questioni di regolamentazione.
L’European AI Act prevede la creazione di autorità di regolamentazione in ciascun paese dotate di adeguate risorse e un processo complicato di certificazione che lo stesso documento ritiene penalizzante per le SME.
A fronte di spese cospicue per realizzare queste strutture e i relativi “regulatory sandbox”, la UE investe cifre minuscole nella ricerca in AI.

Quindi, invece di investire nel padroneggiare la tecnologia e in particolare saper decidere quali siano i suoi utilizzi migliori o peggiori, si investe nel tentativo di rallentarne l’adozione.

L’AI sta facendo progressi straordinari (ne abbiamo accennato negli scambi sui LLM) e concentrandoci solo sulla regolamentazione, l’Europa sta perdendo l’occasione di avere un ruolo in una tecnologia dagli effetti dirompenti sulla società.

— Beppe

On 14 Oct 2022, at 18:01, nexa-request@server-nexa.polito.it wrote:

From: Daniela Tafani <daniela.tafani@unipi.it>
To: "nexa@server-nexa.polito.it" <nexa@server-nexa.polito.it>
Subject: [nexa] Articolo What's wrong with "AI ethics" narratives
Message-ID: <0aeb05e5f4724a5f91338c16bcb95b8c@unipi.it>
Content-Type: text/plain; charset="windows-1252"

Buongiorno.

Propongo alla revisione paritaria aperta un mio articolo su What's wrong with "AI ethics" narratives:
https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/
Daniela Tafani, What’s wrong with “AI ethics” narratives | Bollettino telematico di filosofia politica<https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/>
commentbfp.sp.unipi.it
PDF Abstract 1. Introduction 2. AI, magical thinking and imposture 3. A business model grounded on imposture: AI, cultural capture and regulatory capture 4. “AI ethics” narratives as mystification. The science fiction of AGI ethics…

Grazie, saluti,
Daniela Tafani