Una frase che m'ha colpito nella traduzione dell'articolo di Yuval apparsa sul Manifesto:
| migliaia di palestinesi [...] sono stati spazzati via dai bombardamenti
israeliani, [...] *a causa delle decisioni dell’intelligenza
artificiale*
Non ho letto l'articolo originale (dietro paywall) e la traduzione potrebbe non essere corretta, ma mi sembra che questa formulazione alimenti un 'fumus' molto denso nelle discussioni su etica e AI che ascoltiamo in questi tempi
L'AI (come qualsiasi computazione) non 'prende decisioni' ma genera 'interpretazioni' dei dati di input nella forma di distribuzioni di probabilità sull'alfabeto dei simboli di output. Nella costruzione e nell'impiego dei sistemi di AI, oggi basati su apprendimento, vi sono decisioni cruciali da prendere, ma sono tutte umane:.
1) come costruire la funzione di interpretazione
2) come valutare la sua adeguatezza
3) come usarla in pratica
Ora, non è chiaro (a me) come sia stato costruito questo Lavender, ma mi colpisce che la sua accuratezza sia stimata del 90%. Quale sarebbe stato il benchmark? E che: hanno fatto uccidere a Lavender 100 palestinesi e poi sono andati a vedere che 90 erano 'veri terroristi' mentre 10 non c'entravano nulla? Cioè: prima ammazzi qualcuno e poi gli fai un processo?
A me sembra che in questo caso l'AI sia stata arruolata in una operazione di propaganda: usiamo una AI molto accurata per minimizzare le 'causalities' che comunque ci sono in ogni guerra. L'AI inoltre fa da 'ethic washing' per i soldati che (in 20 secondi) devono decidere se premere il grilletto: ho ucciso *perché* me lo ha detto la macchina. (Nota a margine: sembra che l'unica euristica supplementare sia quella di non sparare sulle donne: ben strano che un classificatore così accurato non sia in grado di discriminare questa 'feature').
Secondo me l'AI, in questo caso, è impiegata come arma di distrazione di massa. Molta attenzione si sta dirigendo verso la 'torsione militare' dell'AI con lo scopo di rifiutarla (o eventualmente apprezzarla) in quanto tale, piuttosto che criticare le decisioni umane che sono alla base di certi suoi specifici impieghi.
Altri hanno fatto giustamente osservare che tutta l'informatica novecentesca ha a che fare con 'torsioni militari', anche quel TCP/IP finanziato da DARPA sul quale transiterà questo messaggio. Io aggiungo solo che la riduzione dell'AI a 'oggetto' con finalità proprie mi ricorda un po' quei processi di reificazione che, secondo Joseph Gabel [1], stanno alla base della falsa coscienza, sia collettiva, sia soggettiva.
G.