L’«etica» come
specchietto per le allodole. Sistemi di
intelligenza artificiale e violazioni dei
diritti
Speaker:
DANIELA TAFANI
(Università di Pisa)
L'INCONTRO SI TERRÀ IN PRESENZA E
ONLINE
SEDE
FISICA: Centro Nexa su Internet e
Società, Politecnico di Torino, Via Boggio
65/a, Torino (1° piano) Suonare al citofono
"Portineria" - Seguire le indicazioni
segnalate dai cartelli apposti lungo il
percorso (Per maggiori informazioni su come
raggiungerci clicca QUI)
STANZA VIRTUALE: https://didattica.polito.it/VClass/NexaEvent
|
Giudizi
e decisioni che hanno effetti rilevanti sulle
vite delle persone sono oggi affidati, in un
numero crescente di ambiti, a sistemi di
intelligenza artificiale che non
funzionano. Tali malfunzionamenti non sono
occasionali e non sono scongiurabili con
interventi tecnici: essi rivelano, anzi, il
funzionamento ordinario dei sistemi di
apprendimento automatico, utilizzati
impropriamente per compiti che non è loro
possibile svolgere o che sono impossibili tout
court. Le decisioni basate su tali sistemi
sono costitutivamente discriminatorie, e
dunque, in alcuni ambiti, infallibilmente
lesive di diritti giuridicamente tutelati,
in quanto procedono trattando gli individui in
base al loro raggruppamento in classi,
costituite a partire dalle regolarità rilevate
nei dati di partenza. Essendo radicata nella
natura statistica di questi sistemi, la
caratteristica di dimenticare i «margini» è
strutturale: non è accidentale e non è dovuta
a singoli bias tecnicamente modificabili. Ci
si può trovare ai margini dei modelli
algoritmici di normalità in virtù di
caratteristiche totalmente irrilevanti,
rispetto alle decisioni di cui si è oggetto.
Alla
vasta documentazione degli esiti ingiusti,
nocivi e assurdi di tali decisioni, le grandi
aziende tecnologiche – paventando un divieto
generalizzato – hanno risposto, in evidente
conflitto di interessi, con un discorso
sull’etica: è nata così, come operazione di
cattura culturale, con l’obiettivo di rendere
plausibile un regime di mera autoregolazione,
l’«etica dell’intelligenza artificiale».
La funzione di tale discorso è quella di
tutelare, legittimandolo, un modello di
business - fondato sulla sorveglianza e
sulla possibilità di esternalizzare
impunemente i costi del lavoro, degli effetti
ambientali e dei danni sociali- il cui
nucleo consiste nella vendita, alle agenzie
pubblicitarie, della promessa di un
microtargeting fondato sulla profilazione
algoritmica.
Negli
ultimi anni, l’opera di demistificazione
della natura meramente discorsiva e del
carattere strumentale dell’«etica
dell’intelligenza artificiale», che
trasforma l’etica nella questione della
conformità procedurale a un «anemico set di
strumenti» e standard tecnici, è stata così
efficace da indurre molti a liquidare come
inutile o dannosa – in quanto disarmata
alternativa al diritto o vuota retorica
aziendale – l’intera filosofia morale. Al
dissolversi della narrazione sull’etica
dell’intelligenza artificiale, compare il
convitato di pietra che essa aveva lo scopo di
tenere alla larga: si sostiene infatti ora, da
più parti, l’urgenza che ad intervenire, in
modo drastico, sia il diritto.
L’adozione di sistemi di apprendimento
automatico a fini decisionali, in ambiti
rilevanti per la vita delle persone, quali il
settore giudiziario, educativo o
dell’assistenza sociale, equivale infatti alla
decisione, in via amministrativa, di istituire
delle «zone pressoché prive di diritti umani».
|