Questa notizia mi ha triggerato un piccolo rant¹ per una questione tangenziale al crimine di guerra, cioè che come consumatori di notizie c'è una mancanza di spirito critico nel giudicare la bontà dell'AI.
Nel thread, mi sembra stiate considerando il prodotto come l'innovazione, ma secondo me l'unica cosa nuova qui è il racconto che se ne fa attorno.
Il caso d'uso vede i militari avere bombe illimitate, non essere responsabili per gli innocenti uccisi, e avere il potere di dichiarare che ogni persona uccisa sia un terrorista e quindi target legittimo.
Tecnologicamente non credo sia diverso dalla guerra in Afghanistan e il famoso "we kill based on metadata", alla fine sono stime, approssimazione, e un misto di signal e human intelligence che va a creare la kill list. Ma specialmente non c'è nessun incentivo a non commettere errori. Non c'è una possibile misurazione del successo, e le stime date nel pezzo (per ammazzare un low-ranking accettiamo fino a 15-20 innocenti, sparando una bomba mentre dorme con la sua famiglia?) sono solo volte a de-umanizzare le vittime. Non sono stime tollerabili da una corte, da un programmatore, da un politico.
Io non so se questo Lavender sia diverso da un sistema che studia le heatmap da un drone, vede dove molte persone stanno ferme ( = stanno dormendo) e in quel momento spende la bomba per massimizzare le uccisioni. Oppure tira un dado e sceglie così i target. Non lo so io, non credo lo sappiano i militari che caricano i missili, e non credo lo sappiano neppure gli sviluppatori di Lavender perchè tanto, hai dati imprecisi in ogni anello della catena, e nessun incentivo a metterli in discussione.
E, oltre che star cercar di legittimare, su grande scala, l'uso di armi automatiche e imprecise:
1) mi sembra tanto una storia volta a distaccare i militari dalla partecipazione al genocidio. Una sorta di pallottola a salve usata dal plotone di esecuzione
2) mi sembra pubblicità gratuita all'industria militare, che certamente vorrà questo giocattolo, e un reminder ad ogni regolatore, che l'uso dell'AI per applicazioni militari è tenuto escluso da ogni regolamentazione