"‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza"
*‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza* /The Israeli army has marked tens of thousands of Gazans as suspects for assassination, using an AI targeting system with little human oversight and a permissive policy for casualties, +972 and Local Call reveal./ By Yuval Abraham April 3, 2024 In 2021, a book <https://books.google.co.il/books/about/The_Human_Machine_Team_How_to_Create_Syn.html?id=hjl1zgEACAAJ&redir_esc=y>titled “The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World” was released in English under the pen name “Brigadier General Y.S.” In it, the author — a man who we confirmed to be the current commander of the elite Israeli intelligence unit 8200 — makes the case for designing a special machine that could rapidly process massive amounts of data to generate thousands of potential “targets” for military strikes in the heat of a war. Such technology, he writes, would resolve what he described as a “human bottleneck for both locating the new targets and decision-making to approve the targets.” Such a machine, it turns out, actually exists. A new investigation by +972 Magazine and Local Call reveals that the Israeli army has developed an artificial intelligence-based program known as “Lavender,” unveiled here for the first time. According to six Israeli intelligence officers, who have all served in the army during the current war on the Gaza Strip and had first-hand involvement with the use of AI to generate targets for assassination, Lavender has played a central role in the unprecedented bombing of Palestinians, especially during the early stages of the war. In fact, according to the sources, its influence on the military’s operations was such that they essentially treated the outputs of the AI machine “as if it were a human decision.” [...] continua qui: https://www.972mag.com/lavender-ai-israeli-army-gaza/
il medesimo giornalista aveva già scritto su temi simili in novembre 2023: Abraham, Yuval. «‘A Mass Assassination Factory’: Inside Israel’s Calculated Bombing of Gaza». /+972 Magazine/, 30 novembre 2023. https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-.... /+972 Magazine /è un'iniziativa giornalistica congiunta israelo-palestinese, che riporta alla mente Giancarlo Siani, quando parlava di giornalisti giornalisti sul tema dei sistemi di IA che guidano (? decidono!) le azioni militari è uscito un libro anonimo a cura di un alto ufficiale israeliano: Y.S., Brigadier General. /The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World/. Independently Published, 2021. che in sostanza espone i presupposti teorici e progettuali di ciò che gli articoli di Abraham descrivono. lo sto leggendo. se anche qualcun altro lo facesse, poi ne parliamo. perché mi pare che questo libro porti il discorso sull'IA in territori a cui non avevamo mai pensato, tutti presi da altri aspetti più evidenti/appariscenti. Maurizio Il 03/04/24 17:47, J.C. DE MARTIN ha scritto:
*‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza*
/The Israeli army has marked tens of thousands of Gazans as suspects for assassination, using an AI targeting system with little human oversight and a permissive policy for casualties, +972 and Local Call reveal./
By Yuval Abraham
April 3, 2024
In 2021, a book <https://books.google.co.il/books/about/The_Human_Machine_Team_How_to_Create_Syn.html?id=hjl1zgEACAAJ&redir_esc=y>titled “The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World” was released in English under the pen name “Brigadier General Y.S.” In it, the author — a man who we confirmed to be the current commander of the elite Israeli intelligence unit 8200 — makes the case for designing a special machine that could rapidly process massive amounts of data to generate thousands of potential “targets” for military strikes in the heat of a war. Such technology, he writes, would resolve what he described as a “human bottleneck for both locating the new targets and decision-making to approve the targets.”
Such a machine, it turns out, actually exists. A new investigation by +972 Magazine and Local Call reveals that the Israeli army has developed an artificial intelligence-based program known as “Lavender,” unveiled here for the first time. According to six Israeli intelligence officers, who have all served in the army during the current war on the Gaza Strip and had first-hand involvement with the use of AI to generate targets for assassination, Lavender has played a central role in the unprecedented bombing of Palestinians, especially during the early stages of the war. In fact, according to the sources, its influence on the military’s operations was such that they essentially treated the outputs of the AI machine “as if it were a human decision.”
[...]
continua qui: https://www.972mag.com/lavender-ai-israeli-army-gaza/
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
------------------------------------------------------------------------ felicità del poco edith bruck ------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
nel controfrontespizio si legge:
The Human-Machine Team Brigadier General Y.S Copyright © 2021 Brigadier General Y.S All rights reserved; No parts of this book may be reproduced or transmitted in any form or by any means, electronic or mechanical, including photocopying, recording, taping, or by any information retrieval system, without the permission, in writing, of the author. Contact: Yossi.human.machine@gmail.com mettere quell'indirizzo email in quel modo (poteva mettere un indirizzo email di un'altra persona) mi chiedo se sia stato più hybris o più trascuratezza
Maurizio Il 05/04/24 19:31, J.C. DE MARTIN ha scritto:
L’autore non è più anonimo: https://www.theguardian.com/world/2024/apr/05/top-israeli-spy-chief-exposes-...
(messaggio spedito in movimento - scusate brevità ed eventuali refusi)
Il giorno 5 apr 2024, alle ore 19:29, maurizio lana <maurizio.lana@uniupo.it> ha scritto:
il medesimo giornalista aveva già scritto su temi simili in novembre 2023: Abraham, Yuval. «‘A Mass Assassination Factory’: Inside Israel’s Calculated Bombing of Gaza». /+972 Magazine/, 30 novembre 2023. https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-.... /+972 Magazine /è un'iniziativa giornalistica congiunta israelo-palestinese, che riporta alla mente Giancarlo Siani, quando parlava di giornalisti giornalisti
sul tema dei sistemi di IA che guidano (? decidono!) le azioni militari è uscito un libro anonimo a cura di un alto ufficiale israeliano: Y.S., Brigadier General. /The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World/. Independently Published, 2021. che in sostanza espone i presupposti teorici e progettuali di ciò che gli articoli di Abraham descrivono. lo sto leggendo. se anche qualcun altro lo facesse, poi ne parliamo. perché mi pare che questo libro porti il discorso sull'IA in territori a cui non avevamo mai pensato, tutti presi da altri aspetti più evidenti/appariscenti.
Maurizio
Il 03/04/24 17:47, J.C. DE MARTIN ha scritto:
*‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza*
/The Israeli army has marked tens of thousands of Gazans as suspects for assassination, using an AI targeting system with little human oversight and a permissive policy for casualties, +972 and Local Call reveal./
By Yuval Abraham
April 3, 2024
In 2021, a book <https://books.google.co.il/books/about/The_Human_Machine_Team_How_to_Create_Syn.html?id=hjl1zgEACAAJ&redir_esc=y>titled “The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World” was released in English under the pen name “Brigadier General Y.S.” In it, the author — a man who we confirmed to be the current commander of the elite Israeli intelligence unit 8200 — makes the case for designing a special machine that could rapidly process massive amounts of data to generate thousands of potential “targets” for military strikes in the heat of a war. Such technology, he writes, would resolve what he described as a “human bottleneck for both locating the new targets and decision-making to approve the targets.”
Such a machine, it turns out, actually exists. A new investigation by +972 Magazine and Local Call reveals that the Israeli army has developed an artificial intelligence-based program known as “Lavender,” unveiled here for the first time. According to six Israeli intelligence officers, who have all served in the army during the current war on the Gaza Strip and had first-hand involvement with the use of AI to generate targets for assassination, Lavender has played a central role in the unprecedented bombing of Palestinians, especially during the early stages of the war. In fact, according to the sources, its influence on the military’s operations was such that they essentially treated the outputs of the AI machine “as if it were a human decision.”
[...]
continua qui: https://www.972mag.com/lavender-ai-israeli-army-gaza/
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
------------------------------------------------------------------------ felicità del poco edith bruck ------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
------------------------------------------------------------------------ many of us believe the EU remains the most extraordinary, ambitious, liberal political alliance in recorded history. where it needs reform, where it needs to evolve, we should be there to help turn that heavy wheel ian mcewan, the guardian, 2/6/2017 ------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Caro Maurizio, Il 05/04/2024 19:29, maurizio lana ha scritto:
il medesimo giornalista aveva già scritto su temi simili in novembre 2023: Abraham, Yuval. «‘A Mass Assassination Factory’: Inside Israel’s Calculated Bombing of Gaza». +972 Magazine, 30 novembre 2023. https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-.... +972 Magazine è un'iniziativa giornalistica congiunta israelo-palestinese, che riporta alla mente Giancarlo Siani, quando parlava di giornalisti giornalisti
sul tema dei sistemi di IA che guidano (? decidono!) le azioni militari è uscito un libro anonimo a cura di un alto ufficiale israeliano: Y.S., Brigadier General. The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World. Independently Published, 2021. che in sostanza espone i presupposti teorici e progettuali di ciò che gli articoli di Abraham descrivono. lo sto leggendo. se anche qualcun altro lo facesse, poi ne parliamo. perché mi pare che questo libro porti il discorso sull'IA in territori a cui non avevamo mai pensato, tutti presi da altri aspetti più evidenti/appariscenti.
Non mi pare che siano territori nuovi: lo sviluppo dei sistemi di apprendimento automatico ha luogo entro una relazione, originaria e costitutiva, con l’apparato militare e i sistemi statali di sorveglianza. Su questa lista è stato segnalato un bel lavoro su questo tema: https://www.lem.sssup.it/WPLem/files/2023-47.pdf I primi sistemi di computer vision, del resto, sono stati realizzati per automatizzare la fotointerpretazione delle immagini aeree, alla ricerca di oggetti di interesse militare: https://www.upress.umn.edu/book-division/books/the-birth-of-computer-vision e alla filiera della sorveglianza il settore resta intimamente legato: https://arxiv.org/abs/2309.15084 Esprimere tale relazione con l’espressione “dual use” è fuorviante: i sistemi concepiti per fini militari conservano l’impostazione, la concettualizzazione degli oggetti di interesse, gli assunti normativi e la logica originari. La polizia predittiva, ad esempio, trasforma la totalità dei cittadini in persone oggetto di sorveglianza, estendendo all’ambito civile la logica militare dell’intelligence e sopprimendo il diritto individuale a non essere oggetto di sorveglianza senza fondate ragioni. E il dilemma del trolley applicato alle auto a presunta guida autonoma concettualizza i veicoli civili come armi che selezionino gli obiettivi umani da abbattere. Buona serata, Daniela
Questa notizia mi ha triggerato un piccolo rant¹ per una questione tangenziale al crimine di guerra, cioè che come consumatori di notizie c'è una mancanza di spirito critico nel giudicare la bontà dell'AI. Nel thread, mi sembra stiate considerando il prodotto come l'innovazione, ma secondo me l'unica cosa nuova qui è il racconto che se ne fa attorno. Il caso d'uso vede i militari avere bombe illimitate, non essere responsabili per gli innocenti uccisi, e avere il potere di dichiarare che ogni persona uccisa sia un terrorista e quindi target legittimo. Tecnologicamente non credo sia diverso dalla guerra in Afghanistan e il famoso "we kill based on metadata", alla fine sono stime, approssimazione, e un misto di signal e human intelligence che va a creare la kill list. Ma specialmente non c'è nessun incentivo a non commettere errori. Non c'è una possibile misurazione del successo, e le stime date nel pezzo (per ammazzare un low-ranking accettiamo fino a 15-20 innocenti, sparando una bomba mentre dorme con la sua famiglia?) sono solo volte a de-umanizzare le vittime. Non sono stime tollerabili da una corte, da un programmatore, da un politico. Io non so se questo Lavender sia diverso da un sistema che studia le heatmap da un drone, vede dove molte persone stanno ferme ( = stanno dormendo) e in quel momento spende la bomba per massimizzare le uccisioni. Oppure tira un dado e sceglie così i target. Non lo so io, non credo lo sappiano i militari che caricano i missili, e non credo lo sappiano neppure gli sviluppatori di Lavender perchè tanto, hai dati imprecisi in ogni anello della catena, e nessun incentivo a metterli in discussione. E, oltre che star cercar di legittimare, su grande scala, l'uso di armi automatiche e imprecise: 1) mi sembra tanto una storia volta a distaccare i militari dalla partecipazione al genocidio. Una sorta di pallottola a salve usata dal plotone di esecuzione 2) mi sembra pubblicità gratuita all'industria militare, che certamente vorrà questo giocattolo, e un reminder ad ogni regolatore, che l'uso dell'AI per applicazioni militari è tenuto escluso da ogni regolamentazione ¹ https://twitter.com/_vecna/status/1776317177135874371 On Fri, Apr 5, 2024 at 10:50 AM Daniela Tafani <daniela.tafani@unipi.it> wrote:
Caro Maurizio,
Il 05/04/2024 19:29, maurizio lana ha scritto:
il medesimo giornalista aveva già scritto su temi simili in novembre 2023: Abraham, Yuval. «‘A Mass Assassination Factory’: Inside Israel’s Calculated Bombing of Gaza». +972 Magazine, 30 novembre 2023. https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-... . +972 Magazine è un'iniziativa giornalistica congiunta israelo-palestinese, che riporta alla mente Giancarlo Siani, quando parlava di giornalisti giornalisti
sul tema dei sistemi di IA che guidano (? decidono!) le azioni militari è uscito un libro anonimo a cura di un alto ufficiale israeliano: Y.S., Brigadier General. The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World. Independently Published, 2021. che in sostanza espone i presupposti teorici e progettuali di ciò che gli articoli di Abraham descrivono. lo sto leggendo. se anche qualcun altro lo facesse, poi ne parliamo. perché mi pare che questo libro porti il discorso sull'IA in territori a cui non avevamo mai pensato, tutti presi da altri aspetti più evidenti/appariscenti.
Non mi pare che siano territori nuovi: lo sviluppo dei sistemi di apprendimento automatico ha luogo entro una relazione, originaria e costitutiva, con l’apparato militare e i sistemi statali di sorveglianza. Su questa lista è stato segnalato un bel lavoro su questo tema: https://www.lem.sssup.it/WPLem/files/2023-47.pdf
I primi sistemi di computer vision, del resto, sono stati realizzati per automatizzare la fotointerpretazione delle immagini aeree, alla ricerca di oggetti di interesse militare: https://www.upress.umn.edu/book-division/books/the-birth-of-computer-vision
e alla filiera della sorveglianza il settore resta intimamente legato: https://arxiv.org/abs/2309.15084
Esprimere tale relazione con l’espressione “dual use” è fuorviante: i sistemi concepiti per fini militari conservano l’impostazione, la concettualizzazione degli oggetti di interesse, gli assunti normativi e la logica originari. La polizia predittiva, ad esempio, trasforma la totalità dei cittadini in persone oggetto di sorveglianza, estendendo all’ambito civile la logica militare dell’intelligence e sopprimendo il diritto individuale a non essere oggetto di sorveglianza senza fondate ragioni. E il dilemma del trolley applicato alle auto a presunta guida autonoma concettualizza i veicoli civili come armi che selezionino gli obiettivi umani da abbattere.
Buona serata, Daniela _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- Claudio Agosti - Hermes Center, AI Forensics, Reversing Works. Platform Auditor & Tech Researcher [ linktr.ee/claudio.agosti ]
Buongiorno Claudio, Claudio Agosti <claudio.agosti@hermescenter.org> writes: [...]
Nel thread, mi sembra stiate considerando il prodotto come l'innovazione,
non capisco da cosa lo deduci, forse sarebbe più efficace se citassi qualche passo che ti fa sembrare così... forse sarebbe più efficace non usare il "top posting"? ;-) [...]
Tecnologicamente non credo sia diverso dalla guerra in Afghanistan e il famoso "we kill based on metadata", alla fine sono stime, approssimazione, e un misto di signal e human intelligence che va a creare la kill list.
dici bene, avevo i tuoi stessi argomenti sulla punta della lingua: grazie per averli espressi così chiaramente e in modo efficacemente sintetico!
Ma specialmente non c'è nessun incentivo a non commettere errori. Non c'è una possibile misurazione del successo, e le stime date nel pezzo (per ammazzare un low-ranking accettiamo fino a 15-20 innocenti, sparando una bomba mentre dorme con la sua famiglia?) sono solo volte a de-umanizzare le vittime. Non sono stime tollerabili da una corte, da un programmatore, da un politico.
ma soprattutto, con tutte queste informazioni in merito al contesto, che cavolo di differenza fa se la bomba la spara un drone in modo completamente automatico perché l'attuatore è controllato direttamente da una "AI" o se la spara un drone in modo completamente "manuale" perché l'attuatore è comandato da un militare in carne ed ossa, magari a 500Km di distanza? tra l'altro, il militare *comunque* sparerebbe "based on metadata"... un tanto al chilo oltretutto i parametri (il signal) per la "kill list" sono sostanzialmente _cercati_ e /conseguentemente/ raccolti in base al famosissimo problema del "individua _statisticamente_ lo sporco X", con il risultato che spesso succede che ricade nella definizione un significativo sottoinsieme del genere umano, senza manco essere "sporco X" [...]
1) mi sembra tanto una storia volta a distaccare i militari dalla partecipazione al genocidio. Una sorta di pallottola a salve usata dal plotone di esecuzione
interessante: potrebbe essere sì; una specie di "obbedivo agli ordini... anzi no, era la AI a obbedire agli ordini... anzi no, la AI gli ordini se li dava da sola"
2) mi sembra pubblicità gratuita all'industria militare, che certamente vorrà questo giocattolo, e un reminder ad ogni regolatore, che l'uso dell'AI per applicazioni militari è tenuto escluso da ogni regolamentazione
ma perché l'uso di altro software per applicazioni militari come è incluso in qualche regolamentazione? cioè: l'uso di software per applicazioni militari in che modo dovrebbe essere regolamentato? ...se già NON si riesce a far applicare la regolamentazione di ben altre cose (tipo i genocidi), quando si fanno le guerre?!? tra l'altro, faccio sommessamente notare che purtroppo ci sono sofisticate (sofistiche?!?) discussioni ad altissimi livelli intellettuali sul fatto che si tratti *tecnicamente* di genocidio [1] piuttosto che crimine di guerra [2], oppure legittima lotta al terrorismo con spiacevoli ma inevitabili danni collaterali... e mi fermo qui perché passerei nel penale.
La riporto ai fini archivistici: --8<---------------cut here---------------start------------->8--- Claudio Agosti @_vecna In addition to that (the responsibility is not being transferred to the AI to absolve the human user), I would like to debunk a false narrative that involves AI and whether it is important for us as consumers of AI. 🧵 Paul Biggar 🇵🇸🇮🇪 @paulbiggar Correct me if I'm wrong, but in occupied territory, you can't kill militants off the battle field, even if you identify them correctly. So every kill by Lavender/Where's Daddy is a war crime? --8<---------------cut here---------------end--------------->8--- [...] [1] https://it.wikipedia.org/wiki/Genocidio#Definizione_ufficiale_delle_Nazioni_... [2] https://it.wikipedia.org/wiki/Crimine_di_guerra#La_legislazione -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Una frase che m'ha colpito nella traduzione dell'articolo di Yuval apparsa sul Manifesto: | migliaia di palestinesi [...] sono stati spazzati via dai bombardamenti israeliani, [...] *a causa delle decisioni dell’intelligenza artificiale* Non ho letto l'articolo originale (dietro paywall) e la traduzione potrebbe non essere corretta, ma mi sembra che questa formulazione alimenti un 'fumus' molto denso nelle discussioni su etica e AI che ascoltiamo in questi tempi L'AI (come qualsiasi computazione) non 'prende decisioni' ma genera 'interpretazioni' dei dati di input nella forma di distribuzioni di probabilità sull'alfabeto dei simboli di output. Nella costruzione e nell'impiego dei sistemi di AI, oggi basati su apprendimento, vi sono decisioni cruciali da prendere, ma sono tutte umane:. 1) come costruire la funzione di interpretazione 2) come valutare la sua adeguatezza 3) come usarla in pratica Ora, non è chiaro (a me) come sia stato costruito questo Lavender, ma mi colpisce che la sua accuratezza sia stimata del 90%. Quale sarebbe stato il benchmark? E che: hanno fatto uccidere a Lavender 100 palestinesi e poi sono andati a vedere che 90 erano 'veri terroristi' mentre 10 non c'entravano nulla? Cioè: prima ammazzi qualcuno e poi gli fai un processo? A me sembra che in questo caso l'AI sia stata arruolata in una operazione di propaganda: usiamo una AI molto accurata per minimizzare le 'causalities' che comunque ci sono in ogni guerra. L'AI inoltre fa da 'ethic washing' per i soldati che (in 20 secondi) devono decidere se premere il grilletto: ho ucciso *perché* me lo ha detto la macchina. (Nota a margine: sembra che l'unica euristica supplementare sia quella di non sparare sulle donne: ben strano che un classificatore così accurato non sia in grado di discriminare questa 'feature'). Secondo me l'AI, in questo caso, è impiegata come arma di distrazione di massa. Molta attenzione si sta dirigendo verso la 'torsione militare' dell'AI con lo scopo di rifiutarla (o eventualmente apprezzarla) in quanto tale, piuttosto che criticare le decisioni umane che sono alla base di certi suoi specifici impieghi. Altri hanno fatto giustamente osservare che tutta l'informatica novecentesca ha a che fare con 'torsioni militari', anche quel TCP/IP finanziato da DARPA sul quale transiterà questo messaggio. Io aggiungo solo che la riduzione dell'AI a 'oggetto' con finalità proprie mi ricorda un po' quei processi di reificazione che, secondo Joseph Gabel [1], stanno alla base della falsa coscienza, sia collettiva, sia soggettiva. G. [1] Joseph Gabel, La falsa coscienza https://edizionidedalo.it/1136-la-falsa-coscienza.html On Sat, 6 Apr 2024 at 14:47, 380° <g380@biscuolo.net> wrote:
Buongiorno Claudio,
Claudio Agosti <claudio.agosti@hermescenter.org> writes:
[...]
Nel thread, mi sembra stiate considerando il prodotto come l'innovazione,
non capisco da cosa lo deduci, forse sarebbe più efficace se citassi qualche passo che ti fa sembrare così...
forse sarebbe più efficace non usare il "top posting"? ;-)
[...]
Tecnologicamente non credo sia diverso dalla guerra in Afghanistan e il famoso "we kill based on metadata", alla fine sono stime, approssimazione, e un misto di signal e human intelligence che va a creare la kill list.
dici bene, avevo i tuoi stessi argomenti sulla punta della lingua: grazie per averli espressi così chiaramente e in modo efficacemente sintetico!
Ma specialmente non c'è nessun incentivo a non commettere errori. Non c'è una possibile misurazione del successo, e le stime date nel pezzo (per ammazzare un low-ranking accettiamo fino a 15-20 innocenti, sparando una bomba mentre dorme con la sua famiglia?) sono solo volte a de-umanizzare le vittime. Non sono stime tollerabili da una corte, da un programmatore, da un politico.
ma soprattutto, con tutte queste informazioni in merito al contesto, che cavolo di differenza fa se la bomba la spara un drone in modo completamente automatico perché l'attuatore è controllato direttamente da una "AI" o se la spara un drone in modo completamente "manuale" perché l'attuatore è comandato da un militare in carne ed ossa, magari a 500Km di distanza?
tra l'altro, il militare *comunque* sparerebbe "based on metadata"... un tanto al chilo
oltretutto i parametri (il signal) per la "kill list" sono sostanzialmente _cercati_ e /conseguentemente/ raccolti in base al famosissimo problema del "individua _statisticamente_ lo sporco X", con il risultato che spesso succede che ricade nella definizione un significativo sottoinsieme del genere umano, senza manco essere "sporco X"
[...]
1) mi sembra tanto una storia volta a distaccare i militari dalla partecipazione al genocidio. Una sorta di pallottola a salve usata dal plotone di esecuzione
interessante: potrebbe essere sì; una specie di "obbedivo agli ordini... anzi no, era la AI a obbedire agli ordini... anzi no, la AI gli ordini se li dava da sola"
2) mi sembra pubblicità gratuita all'industria militare, che certamente vorrà questo giocattolo, e un reminder ad ogni regolatore, che l'uso dell'AI per applicazioni militari è tenuto escluso da ogni regolamentazione
ma perché l'uso di altro software per applicazioni militari come è incluso in qualche regolamentazione?
cioè: l'uso di software per applicazioni militari in che modo dovrebbe essere regolamentato?
...se già NON si riesce a far applicare la regolamentazione di ben altre cose (tipo i genocidi), quando si fanno le guerre?!?
tra l'altro, faccio sommessamente notare che purtroppo ci sono sofisticate (sofistiche?!?) discussioni ad altissimi livelli intellettuali sul fatto che si tratti *tecnicamente* di genocidio [1] piuttosto che crimine di guerra [2], oppure legittima lotta al terrorismo con spiacevoli ma inevitabili danni collaterali... e mi fermo qui perché passerei nel penale.
La riporto ai fini archivistici:
--8<---------------cut here---------------start------------->8---
Claudio Agosti @_vecna
In addition to that (the responsibility is not being transferred to the AI to absolve the human user), I would like to debunk a false narrative that involves AI and whether it is important for us as consumers of AI. 🧵
Paul Biggar 🇵🇸🇮🇪 @paulbiggar
Correct me if I'm wrong, but in occupied territory, you can't kill militants off the battle field, even if you identify them correctly. So every kill by Lavender/Where's Daddy is a war crime?
--8<---------------cut here---------------end--------------->8---
[...]
[1] https://it.wikipedia.org/wiki/Genocidio#Definizione_ufficiale_delle_Nazioni_...
[2] https://it.wikipedia.org/wiki/Crimine_di_guerra#La_legislazione
-- 380° (Giovanni Biscuolo public alter ego)
«Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché»
Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Hai ragione: nulla di piu’ facile che incolpare una macchina, o uno stagista, per mettere a tacere la coscienza, specie delle lobby americane che tanto lavorano per spedire altri missili ad Israele Ciao Rob From: nexa <nexa-bounces@server-nexa.polito.it> On Behalf Of Guido Vetere Sent: Saturday, April 6, 2024 10:11 AM To: 380° <g380@biscuolo.net> Cc: nexa@server-nexa.polito.it Subject: [CAUTION: SUSPECT SENDER] Re: [nexa] "‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza" Una frase che m'ha colpito nella traduzione dell'articolo di Yuval apparsa sul Manifesto: | migliaia di palestinesi [...] sono stati spazzati via dai bombardamenti israeliani, [...] *a causa delle decisioni dell’intelligenza artificiale* Non ho letto l'articolo originale (dietro paywall) e la traduzione potrebbe non essere corretta, ma mi sembra che questa formulazione alimenti un 'fumus' molto denso nelle discussioni su etica e AI che ascoltiamo in questi tempi L'AI (come qualsiasi computazione) non 'prende decisioni' ma genera 'interpretazioni' dei dati di input nella forma di distribuzioni di probabilità sull'alfabeto dei simboli di output. Nella costruzione e nell'impiego dei sistemi di AI, oggi basati su apprendimento, vi sono decisioni cruciali da prendere, ma sono tutte umane:. 1) come costruire la funzione di interpretazione 2) come valutare la sua adeguatezza 3) come usarla in pratica Ora, non è chiaro (a me) come sia stato costruito questo Lavender, ma mi colpisce che la sua accuratezza sia stimata del 90%. Quale sarebbe stato il benchmark? E che: hanno fatto uccidere a Lavender 100 palestinesi e poi sono andati a vedere che 90 erano 'veri terroristi' mentre 10 non c'entravano nulla? Cioè: prima ammazzi qualcuno e poi gli fai un processo? A me sembra che in questo caso l'AI sia stata arruolata in una operazione di propaganda: usiamo una AI molto accurata per minimizzare le 'causalities' che comunque ci sono in ogni guerra. L'AI inoltre fa da 'ethic washing' per i soldati che (in 20 secondi) devono decidere se premere il grilletto: ho ucciso *perché* me lo ha detto la macchina. (Nota a margine: sembra che l'unica euristica supplementare sia quella di non sparare sulle donne: ben strano che un classificatore così accurato non sia in grado di discriminare questa 'feature'). Secondo me l'AI, in questo caso, è impiegata come arma di distrazione di massa. Molta attenzione si sta dirigendo verso la 'torsione militare' dell'AI con lo scopo di rifiutarla (o eventualmente apprezzarla) in quanto tale, piuttosto che criticare le decisioni umane che sono alla base di certi suoi specifici impieghi. Altri hanno fatto giustamente osservare che tutta l'informatica novecentesca ha a che fare con 'torsioni militari', anche quel TCP/IP finanziato da DARPA sul quale transiterà questo messaggio. Io aggiungo solo che la riduzione dell'AI a 'oggetto' con finalità proprie mi ricorda un po' quei processi di reificazione che, secondo Joseph Gabel [1], stanno alla base della falsa coscienza, sia collettiva, sia soggettiva. G. [1] Joseph Gabel, La falsa coscienza https://edizionidedalo.it/1136-la-falsa-coscienza.html<https://eu-west-1.protection.sophos.com?d=edizionidedalo.it&u=aHR0cHM6Ly9lZGl6aW9uaWRlZGFsby5pdC8xMTM2LWxhLWZhbHNhLWNvc2NpZW56YS5odG1s&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=dlZuaVZEM2hIdEVaeXJJSWFPZFM4OGpraXk4dzJLSGZMeHBHaXp1VkdhQT0=&h=28b4371175c540c99680d7130d6eea7c&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M> On Sat, 6 Apr 2024 at 14:47, 380° < g380@biscuolo.net<mailto:g380@biscuolo.net>> wrote: Buongiorno Claudio, Claudio Agosti < claudio.agosti@hermescenter.org<mailto:claudio.agosti@hermescenter.org>> writes: [...]
Nel thread, mi sembra stiate considerando il prodotto come l'innovazione,
non capisco da cosa lo deduci, forse sarebbe più efficace se citassi qualche passo che ti fa sembrare così... forse sarebbe più efficace non usare il "top posting"? ;-) [...]
Tecnologicamente non credo sia diverso dalla guerra in Afghanistan e il famoso "we kill based on metadata", alla fine sono stime, approssimazione, e un misto di signal e human intelligence che va a creare la kill list.
dici bene, avevo i tuoi stessi argomenti sulla punta della lingua: grazie per averli espressi così chiaramente e in modo efficacemente sintetico!
Ma specialmente non c'è nessun incentivo a non commettere errori. Non c'è una possibile misurazione del successo, e le stime date nel pezzo (per ammazzare un low-ranking accettiamo fino a 15-20 innocenti, sparando una bomba mentre dorme con la sua famiglia?) sono solo volte a de-umanizzare le vittime. Non sono stime tollerabili da una corte, da un programmatore, da un politico.
ma soprattutto, con tutte queste informazioni in merito al contesto, che cavolo di differenza fa se la bomba la spara un drone in modo completamente automatico perché l'attuatore è controllato direttamente da una "AI" o se la spara un drone in modo completamente "manuale" perché l'attuatore è comandato da un militare in carne ed ossa, magari a 500Km di distanza? tra l'altro, il militare *comunque* sparerebbe "based on metadata"... un tanto al chilo oltretutto i parametri (il signal) per la "kill list" sono sostanzialmente _cercati_ e /conseguentemente/ raccolti in base al famosissimo problema del "individua _statisticamente_ lo sporco X", con il risultato che spesso succede che ricade nella definizione un significativo sottoinsieme del genere umano, senza manco essere "sporco X" [...]
1) mi sembra tanto una storia volta a distaccare i militari dalla partecipazione al genocidio. Una sorta di pallottola a salve usata dal plotone di esecuzione
interessante: potrebbe essere sì; una specie di "obbedivo agli ordini... anzi no, era la AI a obbedire agli ordini... anzi no, la AI gli ordini se li dava da sola"
2) mi sembra pubblicità gratuita all'industria militare, che certamente vorrà questo giocattolo, e un reminder ad ogni regolatore, che l'uso dell'AI per applicazioni militari è tenuto escluso da ogni regolamentazione
ma perché l'uso di altro software per applicazioni militari come è incluso in qualche regolamentazione? cioè: l'uso di software per applicazioni militari in che modo dovrebbe essere regolamentato? ...se già NON si riesce a far applicare la regolamentazione di ben altre cose (tipo i genocidi), quando si fanno le guerre?!? tra l'altro, faccio sommessamente notare che purtroppo ci sono sofisticate (sofistiche?!?) discussioni ad altissimi livelli intellettuali sul fatto che si tratti *tecnicamente* di genocidio [1] piuttosto che crimine di guerra [2], oppure legittima lotta al terrorismo con spiacevoli ma inevitabili danni collaterali... e mi fermo qui perché passerei nel penale.
La riporto ai fini archivistici: --8<---------------cut here---------------start------------->8--- Claudio Agosti @_vecna In addition to that (the responsibility is not being transferred to the AI to absolve the human user), I would like to debunk a false narrative that involves AI and whether it is important for us as consumers of AI. 🧵 Paul Biggar 🇵🇸🇮🇪 @paulbiggar Correct me if I'm wrong, but in occupied territory, you can't kill militants off the battle field, even if you identify them correctly. So every kill by Lavender/Where's Daddy is a war crime? --8<---------------cut here---------------end--------------->8--- [...] [1] https://it.wikipedia.org/wiki/Genocidio#Definizione_ufficiale_delle_Nazioni_Unite<https://eu-west-1.protection.sophos.com?d=wikipedia.org&u=aHR0cHM6Ly9pdC53aWtpcGVkaWEub3JnL3dpa2kvR2Vub2NpZGlvI0RlZmluaXppb25lX3VmZmljaWFsZV9kZWxsZV9OYXppb25pX1VuaXRl&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=YkREa2dwZVoyYnphTUovVVAvQkVNVTV3TSs1c0JISG5aTTJIdld5ckYxOD0=&h=28b4371175c540c99680d7130d6eea7c&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M> [2] https://it.wikipedia.org/wiki/Crimine_di_guerra#La_legislazione<https://eu-west-1.protection.sophos.com?d=wikipedia.org&u=aHR0cHM6Ly9pdC53aWtpcGVkaWEub3JnL3dpa2kvQ3JpbWluZV9kaV9ndWVycmEjTGFfbGVnaXNsYXppb25l&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=RmJlc05STS85OU4wVHBVNDdEMmhDVFNhZG5oNFNSNjYwS3BWTkRDRktJMD0=&h=28b4371175c540c99680d7130d6eea7c&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M> -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about < https://stallmansupport.org<https://eu-west-1.protection.sophos.com?d=stallmansupport.org&u=aHR0cHM6Ly9zdGFsbG1hbnN1cHBvcnQub3Jn&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=Q3hWanBvU28vR3oySWxwYTVkTE16dFpEYjlMekRLRWE3eHd6Qm5kNmVWcz0=&h=28b4371175c540c99680d7130d6eea7c&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M>>. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa<https://eu-west-1.protection.sophos.com?d=polito.it&u=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE=&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=cWFFS0o0Y1lWM0p6Q3Y2MElMYzQrMUowelVLNElPaHN0NFFDSHorWWJqST0=&h=28b4371175c540c99680d7130d6eea7c&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M>
Il 6 Aprile 2024 16:10:51 CEST, Guido Vetere ha scritto:
| migliaia di palestinesi [...] sono stati spazzati via dai bombardamenti israeliani, [...] *a causa delle decisioni dell’intelligenza artificiale*
[...] mi sembra che questa formulazione alimenti un 'fumus' molto denso nelle discussioni su etica e AI che ascoltiamo in questi tempi [...]
A me sembra che in questo caso l'AI sia stata arruolata in una operazione di propaganda
L'idea di "intelligenza artificiale" stessa è un'operazione di propaganda e distrazione di massa. Da sempre. Se parlassimo più propriamente di software programmato statisticamente, tutte le responsabilità umane sarebbero chiaramente riconducibili: - a chi finanzia la programmazione - a chi la effettua - a chi esegue il software - a chi fornisce l'input - a chi interpreta l'output Questo vale per le manipolazioni cognitive subite da chi usa GMail o Instagram, quanto per quelle subite da chi usa GitHub CopyALot o GPT4, fino al giornalista che si interroga sull'etica della AI invece di sottolineare il genocidio in corso ad opera di Israele. In questo caso, tutti i responsabili andrebbero processate per crimini di guerra e genocidio. Esattamente come i dirigenti e gli sviluppatori di Uber sarebbero dovuti essere condanati per l'omicidio di Elaine Herzberg, quelli di Boing per le vittime del 747 Max e quelli di Tesla per gli incidenti causati dal autopilot. Si tratta di software. Niente di più e niente di meno. E come tutto il software, esegue ciò per cui è programmato, statisticamente o meno. Anche uccidere. Parlare della "AI" serve solo a buttare fumo negli occhi per proteggere criminali. Giacomo
Buongiorno Daniela, chiedo scusa se la faccio lunga, ma credo che un po' di contesto aiuti la discussione. Daniela Tafani <daniela.tafani@unipi.it> writes:
Caro Maurizio,
Il 05/04/2024 19:29, maurizio lana ha scritto:
[...]
perché mi pare che questo libro porti il discorso sull'IA in territori a cui non avevamo mai pensato, tutti presi da altri aspetti più evidenti/appariscenti.
Non ho letto il libro per cui non saprei proprio a quali territori a cui non avevamo mai pensato si riferisca: Maurizio ti andrebbe di specificare così magari possiamo meglio focalizzare l'eventuale discussione? [...]
lo sviluppo dei sistemi di apprendimento automatico ha luogo entro una relazione, originaria e costitutiva, con l’apparato militare e i sistemi statali di sorveglianza.
Ci sono un'enormità di "cose" *mainstream* nel mondo, anche _culturali_, che hanno una relazione costitutiva con l'apparato militare e i sistemi di sorveglianza statali, i sistemi cosiddetti AI - compresi i dosiddetti sistemi di apprendimento automatico - sono solo l'ultima delle cose in ordine cronologico. L'attuale regime mondiale atoricamente conosciuto è stato _plasmato_ (corrotto?) dalla relazione (NON originaria nè costitutiva) con l'apparato milirare e i sistemi statali di sorveglianza, compresi _tutti_ i *codici* che definiscono i termini della cosiddetta convivenza sociale. Quindi, è fuori di dubbio che esiste una tale relazione tra le "cose" e come di _sviluppano_, ma credo che ben altra relazione esiste con come le "cose" vengono _concepite_ (ideate? progettate?) e perché, a quale scopo. Non voglio (e non possiamo, "statutariamente") approfondire _quel_ discorso, andremmo davvero /antropologicamente/, anzi /archetipamente/, troppo lontano, ma è giusto per dare il contesto nel quale queste "cose" si _sviluppano_ in un certo modo piuttosto che in un *altro* modo.
Su questa lista è stato segnalato un bel lavoro su questo tema: https://www.lem.sssup.it/WPLem/files/2023-47.pdf
Ammetto di non aver letto (o semplicemente me lo sono dimenticato) il saggio, ma vorrei qui sommessamente /suggerire/ che lo _sviluppo_ del computer come lo conosciamo oggi ebbe un notevole impulso *solo* grazie alle ingenti risorse rese disponibili dai "military-industrial complex" dei regimi che si stavano preparando a confrontarsi nella seconda guerra mondiale: https://en.wikipedia.org/wiki/History_of_computing_hardware#Electromechanica... A tal proposito si veda anche: https://en.wikipedia.org/wiki/Konrad_Zuse#1939%E2%80%931945 --8<---------------cut here---------------start------------->8--- In 1939, Zuse was called to military service, where he was given the resources to ultimately build the Z2.[18] In September 1940 Zuse presented the Z2, covering several rooms in the parental flat, to experts of the Deutsche Versuchsanstalt für Luftfahrt (DVL; German Research Institute for Aviation).[22]: 424 The Z2 was a revised version of the Z1 using telephone relays. In 1940, the German government began funding him and his company through the Aerodynamische Versuchsanstalt (AVA, Aerodynamic Research Institute, forerunner of the DLR),[24] which used his work for the production of glide bombs. Zuse built the S1 and S2 computing machines, which were special purpose devices which computed aerodynamic corrections to the wings of radio-controlled flying bombs. The S2 featured an integrated analog-to-digital converter under program control, making it the first process-controlled computer.[25]: 75 --8<---------------cut here---------------end--------------->8--- Per capirci, lo Z2 è il parente stretto dello Z1, considerato il primo computer programmabile elettromeccanico al mondo: https://en.wikipedia.org/wiki/Z1_(computer) In realtà il primo "programmable general purpose computer" (meccanico) fu la "Analytical engine", che era Turing-complete [1] già nel 1837, ben 100 anni prima del _paper_ di Turing, che è del 1937. https://en.wikipedia.org/wiki/Analytical_engine --8<---------------cut here---------------start------------->8--- Babbage was never able to complete construction of any of his machines due to conflicts with his chief engineer and inadequate funding.[7][8] It was not until 1941 that Konrad Zuse built the first general-purpose computer, Z3, more than a century after Babbage had proposed the pioneering analytical engine in 1837. [...] Babbage had conflicts with his chief engineer, Joseph Clement, and ultimately the British government withdrew its funding for the project. [...] Babbage developed some two dozen programs for the analytical engine between 1837 and 1840, and one program later.[14][19] These programs treat polynomials, iterative formulas, Gaussian elimination, and Bernoulli numbers.[14][20] [...] Ada Lovelace, who had become interested in the engine eight years earlier.[13] In recognition of her additions to Menabrea's paper, which included a way to calculate Bernoulli numbers using the machine (widely considered to be the first complete computer program) (Babbage muore nel 1897, n.d.r.) In 1878, a committee of the British Association for the Advancement of Science described the analytical engine as "a marvel of mechanical ingenuity", but recommended against constructing it. The committee acknowledged the usefulness and value of the machine, but could not estimate the cost of building it, and were unsure whether the machine would function correctly after being built. [...] As of May 2016, actual construction had not been attempted, since no consistent understanding could yet be obtained from Babbage's original design drawings. In particular it was unclear whether it could handle the indexed variables which were required for Lovelace's Bernoulli program.[34] By 2017, the "Plan 28" effort reported that a searchable database of all catalogued material was available, and an initial review of Babbage's voluminous Scribbling Books had been completed.[35] --8<---------------cut here---------------end--------------->8--- In pratica è dal 1837 che non ci sono abbastanza incentivi manco per /comprendere/ quella macchina :-); è evidente che lo sviluppo abortì subito perché di calcolare i numeri di Bernoulli per uso tecnico-scientifico non importava una mazza a coloro che avevano il potere di finanziarne lo _sviluppo_. Altro discorso, poi, è _per cosa_ vennero originariamente concepiti e costruiti i primi "computing device" e come e _perché_ vennero _sviluppati_: https://en.wikipedia.org/wiki/Timeline_of_computing_hardware_before_1950 [...]
Esprimere tale relazione con l’espressione “dual use” è fuorviante:
Eros contro Thanatos? [2]
i sistemi concepiti per fini militari conservano l’impostazione, la concettualizzazione degli oggetti di interesse, gli assunti normativi e la logica originari.
Ho il serio dubbio che invece in moltissimi casi le "logiche originarie" di molti sistemi concepiti per fini civili/scientifici (liberatori?) siano state poi _corrotte_ quando potevano essere usate per fini militari, _soffocate_ quando invece non erano adatte a quesi fini, se non addirittura *in contrasto* con quei fini. Nell'articolo IT di Wikipedia sulla storia del computer, mi ha colpito la sezione dedicata al Memex [3], sezione non presente nella corrispettiva pagina EN. Esiste però un articolo EN sul Memex: https://en.wikipedia.org/wiki/Memex --8<---------------cut here---------------start------------->8--- Memex is a hypothetical electromechanical device for interacting with microform documents and described in Vannevar Bush's 1945 article "As We May Think". Bush envisioned the memex as a device in which individuals would compress and store all of their books, records, and communications, "mechanized so that it may be consulted with exceeding speed and flexibility". The individual was supposed to use the memex as an automatic personal filing system, making the memex "an enlarged intimate supplement to his memory".[1] The name memex is a portmanteau of memory and expansion. [...] According to Bush, memex could become "a sort of mechanized private file and library".[4] The memex device as described by Bush "would use microfilm storage, dry photography, and analog computing to give postwar scholars access to a huge, indexed repository of knowledge any section of which could be called up with a few keystrokes."[5] --8<---------------cut here---------------end--------------->8--- Per chi se la fosse persa, "The mother of all demos" [4] dimostra piuttosto inequivocabilmente che dal 9 Dicembre 1968 ad oggi qualcosa è andato decisamente storto nello sviluppo dei sistemi informatici... *centralizzati* (per proteggerci da noi stessi, sia chiaro): --8<---------------cut here---------------start------------->8--- In Engelbart's view, in order to steer society into the right use of scientific knowledge derived from the war, that knowledge would need to be better managed and regulated. --8<---------------cut here---------------end--------------->8--- Si veda anche: https://en.wikipedia.org/wiki/Douglas_Engelbart#Guiding_philosophy e https://en.wikipedia.org/wiki/Douglas_Engelbart#Anecdotal_notes Come si può facilmente notare, quindi, nel corso della storia sono state _concepite_ molte tecnologie _liberatorie_: si sono poi sviluppate (quasi) solo quando utili per i fini dai complessi militari-industriali dei vari regimi, nel resto dei casi sono state ignorate o deliberatamente soffocate. Noi siamo storicamente ancora nel periodo post-bellico (o è eterno-bellico?!?) [...] Loving, 380° [1] cioè rispettava tutti i requisiti stabiliti per poter essere definita una Universal Turing Machine: https://en.wikipedia.org/wiki/Universal_Turing_machine [2] sì, anche nell'informatica esiste da _sempre_ un conflitto psicanalitico, anzi filosofico, tra Eros e Thanatos https://en.wikipedia.org/wiki/Beyond_the_Pleasure_Principle [3] https://it.wikipedia.org/wiki/Storia_del_computer#Il_Memex_(1932) [4] https://en.wikipedia.org/wiki/The_Mother_of_All_Demos -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
chiedo scusa se la faccio lunga, ma credo che un po' di contesto aiuti la discussione.
Daniela Tafani<daniela.tafani@unipi.it> writes:
Il 05/04/2024 19:29, maurizio lana ha scritto: [...]
perché mi pare che questo libro porti il discorso sull'IA in territori a cui non avevamo mai pensato, tutti presi da altri aspetti più evidenti/appariscenti. Non ho letto il libro per cui non saprei proprio a quali territori a cui non avevamo mai pensato si riferisca: Maurizio ti andrebbe di specificare così magari possiamo meglio focalizzare l'eventuale discussione? penso al fatto che si discute dappertutto (e anche qui in Nexa) molto dell'IA generativa, ma questa IA non è generativa. è abbastanza (mi pare) old fashioned, e non tanto diversa da quella usata da Springer per pubblicare nel 2019 una rassegna di letteratura sulle batterie al litio (Beta Writer. Lithium-ion batteries. A machine-generated summary of current research. New York, NY: Springer,
caro 380° scrivo sotto Il 06/04/24 12:13, 380° ha scritto: 2019. https://doi.org/10.1007/978-3-030-16800-1): * esperti selezionano un dataset - un corpus di 100 articoli d'esempio sulle batterie al litio) * l'IA acquisisce il dataset e sulla base di tale acquisizione amplia la ricerca ad altri articoli rilevanti sul tema delle batterie al litio * l'IA clusterizza il corpus di articoli * gli esperti rivedono la clusterizzazione e la approvano * l'IA con gli articoli di ogni cluster scrive un capitolo del libro tutti siamo in grado di vedere che le operazioni di Lavender corrispondono agli step qui sopra descritti: * esperti selezionano un dataset che descrive N terroristi * l'IA acquisisce il dataset e sulla base di tale acquisizione amplia la ricerca ad altri potenziali terroristi * l'IA clusterizza gli individui selezionati (senior / junior) * i militari rivedono la clusterizzazione e la approvano * l'IA fornisce le coordinate a cui colpire gli individui selezionati Maurizio
penso
lo sviluppo dei sistemi di apprendimento automatico ha luogo entro una relazione, originaria e costitutiva, con l’apparato militare e i sistemi statali di sorveglianza. Ci sono un'enormità di "cose" *mainstream* nel mondo, anche _culturali_, che hanno una relazione costitutiva con l'apparato militare e i sistemi di sorveglianza statali, i sistemi cosiddetti AI - compresi i dosiddetti sistemi di apprendimento automatico - sono solo l'ultima delle cose in ordine cronologico.
L'attuale regime mondiale storicamente conosciuto è stato _plasmato_ (corrotto?) dalla relazione (NON originaria nè costitutiva) con l'apparato milirare e i sistemi statali di sorveglianza, compresi _tutti_ i *codici* che definiscono i termini della cosiddetta convivenza sociale.
Quindi, è fuori di dubbio che esiste una tale relazione tra le "cose" e come di _sviluppano_, ma credo che ben altra relazione esiste con come le "cose" vengono _concepite_ (ideate? progettate?) e perché, a quale scopo.
Non voglio (e non possiamo, "statutariamente") approfondire _quel_ discorso, andremmo davvero /antropologicamente/, anzi /archetipicamente/, troppo lontano, ma è giusto per dare il contesto nel quale queste "cose" si _sviluppano_ in un certo modo piuttosto che in un *altro* modo.
Su questa lista è stato segnalato un bel lavoro su questo tema: https://www.lem.sssup.it/WPLem/files/2023-47.pdf Ammetto di non aver letto (o semplicemente me lo sono dimenticato) il saggio, ma vorrei qui sommessamente /suggerire/ che lo _sviluppo_ del computer come lo conosciamo oggi ebbe un notevole impulso *solo* grazie alle ingenti risorse rese disponibili dai "military-industrial complex" dei regimi che si stavano preparando a confrontarsi nella seconda guerra mondiale:
https://en.wikipedia.org/wiki/History_of_computing_hardware#Electromechanica...
A tal proposito si veda anche: https://en.wikipedia.org/wiki/Konrad_Zuse#1939%E2%80%931945
--8<---------------cut here---------------start------------->8---
In 1939, Zuse was called to military service, where he was given the resources to ultimately build the Z2.[18] In September 1940 Zuse presented the Z2, covering several rooms in the parental flat, to experts of the Deutsche Versuchsanstalt für Luftfahrt (DVL; German Research Institute for Aviation).[22]: 424 The Z2 was a revised version of the Z1 using telephone relays.
In 1940, the German government began funding him and his company through the Aerodynamische Versuchsanstalt (AVA, Aerodynamic Research Institute, forerunner of the DLR),[24] which used his work for the production of glide bombs. Zuse built the S1 and S2 computing machines, which were special purpose devices which computed aerodynamic corrections to the wings of radio-controlled flying bombs. The S2 featured an integrated analog-to-digital converter under program control, making it the first process-controlled computer.[25]: 75
--8<---------------cut here---------------end--------------->8---
Per capirci, lo Z2 è il parente stretto dello Z1, considerato il primo computer programmabile elettromeccanico al mondo: https://en.wikipedia.org/wiki/Z1_(computer)
In realtà il primo "programmable general purpose computer" (meccanico) fu la "Analytical engine", che era Turing-complete [1] già nel 1837, ben 100 anni prima del _paper_ di Turing, che è del 1937.
https://en.wikipedia.org/wiki/Analytical_engine
--8<---------------cut here---------------start------------->8---
Babbage was never able to complete construction of any of his machines due to conflicts with his chief engineer and inadequate funding.[7][8] It was not until 1941 that Konrad Zuse built the first general-purpose computer, Z3, more than a century after Babbage had proposed the pioneering analytical engine in 1837.
[...] Babbage had conflicts with his chief engineer, Joseph Clement, and ultimately the British government withdrew its funding for the project.
[...] Babbage developed some two dozen programs for the analytical engine between 1837 and 1840, and one program later.[14][19] These programs treat polynomials, iterative formulas, Gaussian elimination, and Bernoulli numbers.[14][20]
[...] Ada Lovelace, who had become interested in the engine eight years earlier.[13] In recognition of her additions to Menabrea's paper, which included a way to calculate Bernoulli numbers using the machine (widely considered to be the first complete computer program)
(Babbage muore nel 1897, n.d.r.)
In 1878, a committee of the British Association for the Advancement of Science described the analytical engine as "a marvel of mechanical ingenuity", but recommended against constructing it. The committee acknowledged the usefulness and value of the machine, but could not estimate the cost of building it, and were unsure whether the machine would function correctly after being built.
[...] As of May 2016, actual construction had not been attempted, since no consistent understanding could yet be obtained from Babbage's original design drawings. In particular it was unclear whether it could handle the indexed variables which were required for Lovelace's Bernoulli program.[34] By 2017, the "Plan 28" effort reported that a searchable database of all catalogued material was available, and an initial review of Babbage's voluminous Scribbling Books had been completed.[35]
--8<---------------cut here---------------end--------------->8---
In pratica è dal 1837 che non ci sono abbastanza incentivi manco per /comprendere/ quella macchina :-); è evidente che lo sviluppo abortì subito perché di calcolare i numeri di Bernoulli per uso tecnico-scientifico non importava una mazza a coloro che avevano il potere di finanziarne lo _sviluppo_.
Altro discorso, poi, è _per cosa_ vennero originariamente concepiti e costruiti i primi "computing device" e come e _perché_ vennero _sviluppati_: https://en.wikipedia.org/wiki/Timeline_of_computing_hardware_before_1950
[...]
Esprimere tale relazione con l’espressione “dual use” è fuorviante: Eros contro Thanatos? [2]
i sistemi concepiti per fini militari conservano l’impostazione, la concettualizzazione degli oggetti di interesse, gli assunti normativi e la logica originari. Ho il serio dubbio che invece in moltissimi casi le "logiche originarie" di molti sistemi concepiti per fini civili/scientifici (liberatori?) siano state poi _corrotte_ quando potevano essere usate per fini militari, _soffocate_ quando invece non erano adatte a quesi fini, se non addirittura *in contrasto* con quei fini.
Nell'articolo IT di Wikipedia sulla storia del computer, mi ha colpito la sezione dedicata al Memex [3], sezione non presente nella corrispettiva pagina EN. Esiste però un articolo EN sul Memex:
https://en.wikipedia.org/wiki/Memex
--8<---------------cut here---------------start------------->8---
Memex is a hypothetical electromechanical device for interacting with microform documents and described in Vannevar Bush's 1945 article "As We May Think". Bush envisioned the memex as a device in which individuals would compress and store all of their books, records, and communications, "mechanized so that it may be consulted with exceeding speed and flexibility". The individual was supposed to use the memex as an automatic personal filing system, making the memex "an enlarged intimate supplement to his memory".[1] The name memex is a portmanteau of memory and expansion.
[...] According to Bush, memex could become "a sort of mechanized private file and library".[4] The memex device as described by Bush "would use microfilm storage, dry photography, and analog computing to give postwar scholars access to a huge, indexed repository of knowledge any section of which could be called up with a few keystrokes."[5]
--8<---------------cut here---------------end--------------->8---
Per chi se la fosse persa, "The mother of all demos" [4] dimostra piuttosto inequivocabilmente che dal 9 Dicembre 1968 ad oggi qualcosa è andato decisamente storto nello sviluppo dei sistemi informatici... *centralizzati* (per proteggerci da noi stessi, sia chiaro):
--8<---------------cut here---------------start------------->8---
In Engelbart's view, in order to steer society into the right use of scientific knowledge derived from the war, that knowledge would need to be better managed and regulated.
--8<---------------cut here---------------end--------------->8---
Si veda anche: https://en.wikipedia.org/wiki/Douglas_Engelbart#Guiding_philosophy e https://en.wikipedia.org/wiki/Douglas_Engelbart#Anecdotal_notes
Come si può facilmente notare, quindi, nel corso della storia sono state _concepite_ molte tecnologie _liberatorie_: si sono poi sviluppate (quasi) solo quando utili per i fini dai complessi militari-industriali dei vari regimi, nel resto dei casi sono state ignorate o deliberatamente soffocate.
Noi siamo storicamente ancora nel periodo post-bellico (o è eterno-bellico?!?)
[...]
Loving, 380°
[1] cioè rispettava tutti i requisiti stabiliti per poter essere definita una Universal Turing Machine: https://en.wikipedia.org/wiki/Universal_Turing_machine
[2] sì, anche nell'informatica esiste da _sempre_ un conflitto psicanalitico, anzi filosofico, tra Eros e Thanatos https://en.wikipedia.org/wiki/Beyond_the_Pleasure_Principle
[3]https://it.wikipedia.org/wiki/Storia_del_computer#Il_Memex_(1932)
------------------------------------------------------------------------ é imperioso mantermos a esperança mesmo quando a dureza ou aspereza da realidade sugira o contrário paulo freire ------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Buongiorno Maurizio, grazie delle segnalazioni. Chi ha fretta o è distratto, per favore *incornici* queste frasi (riferimenti più avanti) --8<---------------cut here---------------start------------->8--- he provides a template for how to construct an effective targets machine drawing on “big data” that a human brain could not process. “The machine needs enough data regarding the battlefield, the population, visual information, cellular data, social media connections, pictures, cellphone contacts,” he writes. “The more data and the more varied it is, the better.” --8<---------------cut here---------------end--------------->8--- Stiamo parlando di protezione dei dati personali e qui è evidente ogni oltre ragionevole ignoranza che è strettamente e inequivocabilmente connessa ai diritti umani. ...e cerchiamo di non fare i naive oltre ogni decenza: le attività di spionaggio sono una cosa, la _sorveglianza globale_ (anche di un sottoinsieme consistente del globo, neh) è tutta un'altra faccenda. I meno distratti tra i lettori non stenteranno a comprendere come la metafora del Panopticon sia _perfettamente_ calzante per internet: le "target machines" vanno dai sistemi di advertising mirato per i _consumatori_ ai sistemi di uccisione mirata dei _terroristi_, con un sacco di gradazioni dello stesso colore in mezzo (tipo quelle belle porcherie praticate quodidianamente dai social che /spacciano/ dati personali con nonchalance), e non potrebbero funzionare se le comunicazioni in rete fossero DI DEFAULT anonime. Punto. Quindi: senza anonimato in rete è impossibile poter esercitare i diritti umani. Punto. Ogni altro tentativo di "mitigare" gli effetti delle "target machines", a qualsiasi livello che non sia quello TECNICO (cioè delle tecniche di trasmissione dei dati), è una _perfetta_ perdita di tempo. Punto. maurizio lana <maurizio.lana@uniupo.it> writes: [...]
sul tema dei sistemi di IA che guidano (? decidono!) le azioni militari è uscito un libro anonimo a cura di un alto ufficiale israeliano:
https://www.theguardian.com/world/2024/apr/05/top-israeli-spy-chief-exposes-... «Top Israeli spy chief exposes his true identity in online security lapse» Harry Davies and Bethan McKernan Fri 5 Apr 2024 15.19 CEST --8<---------------cut here---------------start------------->8--- The identity of the commander of Israel's Unit 8200 is a closely guarded secret. He occupies one of the most sensitive roles in the military, leading one of the world's most powerful surveillance agencies, comparable to the US National Security Agency. Yet after spending more than two decades operating in the shadows, the Guardian can reveal how the controversial spy chief – whose name is Yossi Sariel – has left his identity exposed online. The embarrassing security lapse is linked to a book he published on Amazon, which left a digital trail to a private Google account created in his name, along with his unique ID and links to the account's maps and calendar profiles. The Guardian has confirmed with multiple sources that Sariel is the secret author of The Human Machine Team, a book in which he offers a radical vision for how artificial intelligence can transform the relationship between military personnel and machines. Published in 2021 using a pen name composed of his initials, Brigadier General YS, it provides a blueprint for the advanced AI-powered systems that the Israel Defense Forces (IDF) have been pioneering during the six-month war in [Gaza]. An electronic version of the book included an anonymous email address that can easily be traced to Sariel's name and Google account. Contacted by the Guardian, an IDF spokesperson said the email address was not Sariel's personal one, but “dedicated specifically for issues to do with the book itself”. Later on Friday, in a statement to the Israeli media, the IDF described the book's exposure of Sariel's personal details as “a mistake”, adding: “The issue will be examined to prevent the recurrence of similar cases in the future.” The security blunder is likely to place further pressure on Sariel, who is said to “live and breathe” intelligence but whose tenure running the IDF's elite cyber intelligence division has become mired in controversy. Unit 8200, once revered within Israel and beyond for intelligence capabilities that rivalled those of the UK's GCHQ, is thought to have built a vast surveillance apparatus to closely monitor the [Palestinian territories]. However, it has been criticised over its failure to foresee and prevent Hamas's deadly 7 October assault last year on southern Israel, in which Palestinian militants killed nearly 1,200 Israelis and kidnapped about 240 people. Since the Hamas-led attacks, there have been accusations that Unit 8200's “technological hubris” came at the expense of more conventional intelligence-gathering techniques. In its war in Gaza, the IDF appears to have fully embraced Sariel's vision of the future, in which military technology represents a new frontier where AI is being used to fulfil increasingly complex tasks on the battlefield. Sariel argued in the published book three years ago that his ideas about using machine learning to transform modern warfare should become mainstream. “We just need to take them from the periphery and deliver them to the centre of the stage,” he wrote. One section of the book heralds the concept of an AI-powered “targets machine”, descriptions of which closely resemble the target recommendation systems the IDF is now known have been [relying upon in its bombardment of Gaza]. Over the last six months, the IDF has deployed multiple AI-powered decision support systems that have been rapidly developed and refined by Unit 8200 under Sariel's leadership. They include [the Gospel] and [Lavender], two target recommendation systems that have been revealed in reports by the Israeli-Palestinian publication [+972 magazine], its Hebrew-language outlet Local Call and the Guardian. The IDF says its AI systems are intended to assist human intelligence officers, who are required to verify that military suspects are legitimate targets under international law. A spokesperson said the military used “various types of tools and methods”, adding: “Evidently, there are tools that exist in order to benefit intelligence researchers that are based on artificial intelligence.” [Gaza] <https://www.theguardian.com/world/gaza> [Palestinian territories] <https://www.theguardian.com/world/palestinian-territories> [relying upon in its bombardment of Gaza] <https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-...> [the Gospel] <https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-...> [Lavender] <https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-...> [+972 magazine] <https://www.972mag.com/lavender-ai-israeli-army-gaza/> *Targets machine* ───────────────── On Wednesday, +972 and Local Call placed the spotlight on the link between Unit 8200 and the book authored by [a mysteriously named Brigadier General YS]. Sariel is understood to have written the book with the IDF's permission after a year as a visiting researcher at the US National Defense University in Washington DC, where he made the case for using AI to transform modern warfare. Aimed at high-ranking military commanders and security officials, the book articulates a “human-machine teaming” concept that seeks to achieve synergy between humans and AI, rather than constructing fully autonomous systems. It reflects Sariel's ambition to become a “thought leader”, according to one former intelligence official. In the 2000s, he was a leading member of a group of academically minded spies known as “the Choir”, which agitated for an overhaul of Israeli intelligence practices. An Israeli press report suggests that by 2017 he was head of intelligence for the IDF's central command. His subsequent elevation to commander of Unit 8200 amounted to an endorsement by the military establishment of his technological vision for the future. Sariel refers in the book to “a revolution” in recent years within the IDF, which has “developed a new concept of intelligence centric warfare to connect intelligence to the fighters in the field”. He advocates going further still, fully merging intelligence and warfare, in particular when conducting lethal targeting operations. In one chapter of the book, he provides a template for how to construct an effective targets machine drawing on “big data” that a human brain could not process. “The machine needs enough data regarding the battlefield, the population, visual information, cellular data, social media connections, pictures, cellphone contacts,” he writes. “The more data and the more varied it is, the better.” Such a targets machine, he said, would draw on complex models that make predictions built “on lots of small, diverse features”, listing examples such as “people who are with a Hezbollah member in a WhatsApp group, people who get new cellphones every few months, those who change their addresses frequently”. He argues that using AI to create potential military targets can be more efficient and avoid “bottlenecks” created by intelligence officials or soldiers. “There is a human bottleneck for both locating the new targets and decision-making to approve the targets. There is also the bottleneck of how to process a great amount of data. Then there is the bottleneck of connecting the intelligence to the fire.” He adds: “A team consisting of machines and investigators can blast the bottleneck wide open.” [a mysteriously named Brigadier General YS] <https://www.972mag.com/lavender-ai-israeli-army-gaza/> *Intelligence divide* ───────────────────── Disclosure of Sariel's security lapse comes at a difficult time for the intelligence boss. In February, he came under public scrutiny in Israel when the Israeli newspaper Maariv published [an account] of recriminations within Unit 8200 after the 7 October attacks. Sariel was not named in the article, which referred to Unit 8200's commander only as “Y”. However, the rare public criticism brought into focus a divide within Israel's intelligence community over its biggest failure in a generation. Sariel's critics, the report said, believe Unit 8200's prioritisation of “addictive and exciting” technology over more old-fashioned intelligence methods had led to the disaster. One veteran official told the newspaper the unit under Sariel had “followed the new intelligence bubble”. For his part, Sariel is quoted as telling colleagues that 7 October will “haunt him” until his last day. “I accept responsibility for what happened in the most profound sense of the word,” he said. “We were defeated. I was defeated.” [an account] <https://www.maariv.co.il/journalists/Article-1078519> --8<---------------cut here---------------end--------------->8--- Per la cronaca, l'indirizzo email in questione può banalmente essere letto nella seconda di copertina del libro in formato epub da chiunque sia in possesso del libro, e io sia perché me lo ha regalato mio cuggino :-D L'indirizzo è: Yossi.human.machine@gmail.com Ai fini della discussione in merito all'oggetto e alla _sostanza_ del libro è irrilevante (?), ma quello che sembra un patetico tentativo di rimanere anonimi da parte dell'ennesimo militare di altissimo grado la dice lunga sulle effettive competenze informatiche (o a 380°!?) delle elìtes dominanti.
Y.S., Brigadier General. /The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World/. Independently Published, 2021.
Giusto, per compredere l'abisso bisogna almeno ispezionarlo, o farselo raccontare da una persona che ci vuole davvero bene... Disponibile ai link pubblicati qui: https://annas-archive.org/md5/a7724b8032fe211e5f0a4e0d5cb0bb6f ad esempio: http://library.lol/main/a7724b8032fe211e5f0a4e0d5cb0bb6f [1] [...] Saluti, 380° [1] https://web.archive.org/web/20240406061751/http://library.lol/main/a7724b803... link diretto all'epub: https://web.archive.org/web/20240406061704/https://download.library.lol/main... -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
participants (9)
-
380° -
Claudio Agosti -
Daniela Tafani -
Giacomo Tesio -
Guido Vetere -
J.C. DE MARTIN -
J.C. DE MARTIN -
maurizio lana -
Roberto Dolci