Hai ragione: nulla di piu’ facile che incolpare una macchina, o uno stagista, per mettere a tacere la coscienza, specie delle lobby americane che tanto lavorano per spedire altri missili ad Israele
Ciao
Rob
From: nexa <nexa-bounces@server-nexa.polito.it> On Behalf Of Guido Vetere
Sent: Saturday, April 6, 2024 10:11 AM
To: 380° <g380@biscuolo.net>
Cc: nexa@server-nexa.polito.it
Subject: [CAUTION: SUSPECT SENDER] Re: [nexa] "‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza"
Una frase che m'ha colpito nella traduzione dell'articolo di Yuval apparsa sul Manifesto: | migliaia di palestinesi [...] sono stati spazzati via dai bombardamenti israeliani, [...] *a causa delle dec
sophospsmartbannerend
Una frase che m'ha colpito nella traduzione dell'articolo di Yuval apparsa sul Manifesto:
| migliaia di palestinesi [...] sono stati spazzati via dai bombardamenti israeliani, [...] *a causa delle decisioni dell’intelligenza artificiale*
Non ho letto l'articolo originale (dietro paywall) e la traduzione potrebbe non essere corretta, ma mi sembra che questa formulazione alimenti un 'fumus' molto denso nelle discussioni su etica e AI che ascoltiamo in questi tempi
L'AI (come qualsiasi computazione) non 'prende decisioni' ma genera 'interpretazioni' dei dati di input nella forma di distribuzioni di probabilità sull'alfabeto dei simboli di output. Nella costruzione e nell'impiego dei sistemi di AI, oggi basati su apprendimento, vi sono decisioni cruciali da prendere, ma sono tutte umane:.
1) come costruire la funzione di interpretazione
2) come valutare la sua adeguatezza
3) come usarla in pratica
Ora, non è chiaro (a me) come sia stato costruito questo Lavender, ma mi colpisce che la sua accuratezza sia stimata del 90%. Quale sarebbe stato il benchmark? E che: hanno fatto uccidere a Lavender 100 palestinesi e poi sono andati a vedere che 90 erano 'veri terroristi' mentre 10 non c'entravano nulla? Cioè: prima ammazzi qualcuno e poi gli fai un processo?
A me sembra che in questo caso l'AI sia stata arruolata in una operazione di propaganda: usiamo una AI molto accurata per minimizzare le 'causalities' che comunque ci sono in ogni guerra. L'AI inoltre fa da 'ethic washing' per i soldati che (in 20 secondi) devono decidere se premere il grilletto: ho ucciso *perché* me lo ha detto la macchina. (Nota a margine: sembra che l'unica euristica supplementare sia quella di non sparare sulle donne: ben strano che un classificatore così accurato non sia in grado di discriminare questa 'feature').
Secondo me l'AI, in questo caso, è impiegata come arma di distrazione di massa. Molta attenzione si sta dirigendo verso la 'torsione militare' dell'AI con lo scopo di rifiutarla (o eventualmente apprezzarla) in quanto tale, piuttosto che criticare le decisioni umane che sono alla base di certi suoi specifici impieghi.
Altri hanno fatto giustamente osservare che tutta l'informatica novecentesca ha a che fare con 'torsioni militari', anche quel TCP/IP finanziato da DARPA sul quale transiterà questo messaggio. Io aggiungo solo che la riduzione dell'AI a 'oggetto' con finalità proprie mi ricorda un po' quei processi di reificazione che, secondo Joseph Gabel [1], stanno alla base della falsa coscienza, sia collettiva, sia soggettiva.
G.
[1] Joseph Gabel, La falsa coscienza https://edizionidedalo.it/1136-la-falsa-coscienza.html
On Sat, 6 Apr 2024 at 14:47, 380° < g380@biscuolo.net> wrote:
Buongiorno Claudio,
Claudio Agosti < claudio.agosti@hermescenter.org> writes:
[...]
> Nel thread, mi sembra stiate considerando il prodotto come
> l'innovazione,
non capisco da cosa lo deduci, forse sarebbe più efficace se citassi
qualche passo che ti fa sembrare così...
forse sarebbe più efficace non usare il "top posting"? ;-)
[...]
> Tecnologicamente non credo sia diverso dalla guerra in Afghanistan e il
> famoso "we kill based on metadata", alla fine sono stime, approssimazione,
> e un misto di signal e human intelligence che va a creare la kill
> list.
dici bene, avevo i tuoi stessi argomenti sulla punta della lingua:
grazie per averli espressi così chiaramente e in modo efficacemente
sintetico!
> Ma specialmente non c'è nessun incentivo a non commettere errori. Non
> c'è una possibile misurazione del successo, e le stime date nel pezzo
> (per ammazzare un low-ranking accettiamo fino a 15-20 innocenti,
> sparando una bomba mentre dorme con la sua famiglia?) sono solo volte
> a de-umanizzare le vittime. Non sono stime tollerabili da una corte,
> da un programmatore, da un politico.
ma soprattutto, con tutte queste informazioni in merito al contesto, che
cavolo di differenza fa se la bomba la spara un drone in modo
completamente automatico perché l'attuatore è controllato direttamente
da una "AI" o se la spara un drone in modo completamente "manuale"
perché l'attuatore è comandato da un militare in carne ed ossa, magari a
500Km di distanza?
tra l'altro, il militare *comunque* sparerebbe "based on metadata"... un
tanto al chilo
oltretutto i parametri (il signal) per la "kill list" sono
sostanzialmente _cercati_ e /conseguentemente/ raccolti in base al
famosissimo problema del "individua _statisticamente_ lo sporco X", con
il risultato che spesso succede che ricade nella definizione un
significativo sottoinsieme del genere umano, senza manco essere "sporco
X"
[...]
> 1) mi sembra tanto una storia volta a distaccare i militari dalla
> partecipazione al genocidio. Una sorta di pallottola a salve usata dal
> plotone di esecuzione
interessante: potrebbe essere sì; una specie di "obbedivo agli
ordini... anzi no, era la AI a obbedire agli ordini... anzi no, la AI
gli ordini se li dava da sola"
> 2) mi sembra pubblicità gratuita all'industria militare, che certamente
> vorrà questo giocattolo, e un reminder ad ogni regolatore, che l'uso
> dell'AI per applicazioni militari è tenuto escluso da ogni
> regolamentazione
ma perché l'uso di altro software per applicazioni militari come è
incluso in qualche regolamentazione?
cioè: l'uso di software per applicazioni militari in che modo dovrebbe
essere regolamentato?
...se già NON si riesce a far applicare la regolamentazione di ben altre
cose (tipo i genocidi), quando si fanno le guerre?!?
tra l'altro, faccio sommessamente notare che purtroppo ci sono
sofisticate (sofistiche?!?) discussioni ad altissimi livelli
intellettuali sul fatto che si tratti *tecnicamente* di genocidio [1]
piuttosto che crimine di guerra [2], oppure legittima lotta al
terrorismo con spiacevoli ma inevitabili danni collaterali... e mi fermo
qui perché passerei nel penale.
> ¹ https://twitter.com/_vecna/status/1776317177135874371
La riporto ai fini archivistici:
--8<---------------cut here---------------start------------->8---
Claudio Agosti @_vecna
In addition to that (the responsibility is not being transferred to the
AI to absolve the human user), I would like to debunk a false narrative
that involves AI and whether it is important for us as consumers of
AI. 🧵
Paul Biggar 🇵🇸🇮🇪
@paulbiggar
Correct me if I'm wrong, but in occupied territory, you can't kill
militants off the battle field, even if you identify them
correctly. So every kill by Lavender/Where's Daddy is a war crime?
--8<---------------cut here---------------end--------------->8---
[...]
[1] https://it.wikipedia.org/wiki/Genocidio#Definizione_ufficiale_delle_Nazioni_Unite
[2] https://it.wikipedia.org/wiki/Crimine_di_guerra#La_legislazione
--
380° (Giovanni Biscuolo public alter ego)
«Noi, incompetenti come siamo,
non abbiamo alcun titolo per suggerire alcunché»
Disinformation flourishes because many people care deeply about injustice
but very few check the facts. Ask me about < https://stallmansupport.org>.
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa