Il ruolo dell'IA nei conflitti
Buongiorno, Un breve video reportage focalizzato sul conflitto tra Israele e Hamas. La tesi é che dietro il 7 ottobre e il disastroso bilancio di morti a Gaza c'è un unico grande respisabile: la decisione (politica) di affidarsi alla IA per, prima, la valutazione del rischio Hamas e, successivamente, per definire i targets e le morti di civili tollerabili, come effetto collaterale dei bombardamenti. https://www.repubblica.it/rubriche/metropolis/2025/01/17/video/gaza_paradoss... Chi è responsabile da un punto di vista giuridico di questi morti? Che sia almeno tregua a tutto questo, da domani. Alessandro
Mi permetto di rimandare alla registrazione dell'ultimo convegno annuale Nexa, e in particolare alla sessione 2 "L’impiego militare dell’intelligenza artificiale": https://nexa.polito.it/conf2024/ jc On 18/01/25 10:40, Alessandro Brolpito wrote:
Buongiorno,
Un breve video reportage focalizzato sul conflitto tra Israele e Hamas.
La tesi é che dietro il 7 ottobre e il disastroso bilancio di morti a Gaza c'è un unico grande respisabile: la decisione (politica) di affidarsi alla IA per, prima, la valutazione del rischio Hamas e, successivamente, per definire i targets e le morti di civili tollerabili, come effetto collaterale dei bombardamenti.
https://www.repubblica.it/rubriche/metropolis/2025/01/17/video/gaza_paradoss...
Chi è responsabile da un punto di vista giuridico di questi morti?
Che sia almeno tregua a tutto questo, da domani.
Alessandro
Salve. Dite quello che volete, ma la responsabilità di chi usa l'AI ... **è di chi la usa**. Non si è mai visto incarcerare una pistola che avesse ucciso qualcuno. Il 2025-01-18 10:51 J.C. DE MARTIN ha scritto:
Mi permetto di rimandare alla registrazione dell'ultimo convegno annuale Nexa, e in particolare alla sessione 2 "L’impiego militare dell’intelligenza artificiale": https://nexa.polito.it/conf2024/
jc
On 18/01/25 10:40, Alessandro Brolpito wrote:
Buongiorno,
Un breve video reportage focalizzato sul conflitto tra Israele e Hamas.
La tesi é che dietro il 7 ottobre e il disastroso bilancio di morti a Gaza c'è un unico grande respisabile: la decisione (politica) di affidarsi alla IA per, prima, la valutazione del rischio Hamas e, successivamente, per definire i targets e le morti di civili tollerabili, come effetto collaterale dei bombardamenti.
https://www.repubblica.it/rubriche/metropolis/2025/01/17/video/gaza_paradoss...
Chi è responsabile da un punto di vista giuridico di questi morti?
Che sia almeno tregua a tutto questo, da domani.
Alessandro
Il 18/01/25 11:01, abregni ha scritto:
la responsabilità di chi usa l'AI ... **è di chi la usa**.
La responsabilità di chi disegna l'IA **è di chi la disegna**. Come dice Jessica Rabbit: “I’m not bad, I’m just drawn that way.”. m.c. -- Avv. Marco Ciurcina Via San Quintino, 32 10121 Torino TO tel +39 011 4546112 cell +39 335 6650910
Certo che sì. Ma non ho mai visto incarcerare neanche il patron della Beretta... Il 2025-01-18 12:08 Marco Ciurcina via nexa ha scritto:
Il 18/01/25 11:01, abregni ha scritto:
la responsabilità di chi usa l'AI ... **è di chi la usa**.
La responsabilità di chi disegna l'IA **è di chi la disegna**.
Come dice Jessica Rabbit: “I’m not bad, I’m just drawn that way.”.
m.c.
Ciao Marco, la risposta però l'abbiamo già data qui: è la COSNU defense. Se la tecnologia è "capabale of substantial non infringing uses" non c'è responsabilità del produttore, ma, se del caso, dell'utilizzatore finale. La soluzione è radicata nelle teorie Welfare e analisi economica del diritto via Reinier Kraakman. A me pare che questo resti comunque l'approccio migliore per bilanciare esternalità negative e positive nel processo di sviluppo tecnologico e equilibrare la tensione innovazione vs regolamentazione di tecnologie con usi potenzialmente dannosi. Se imponi obblighi e limiti troppo ampi agli sviluppatori di tecnologie, frenerai il progresso. E' una conseguenza ineludibile. AI è solo un'altra tecnologia per cui i termini del ragionamento già fatto per tante altre rimangono validi. Giancarlo On Sat, Jan 18, 2025 at 11:08 AM Marco Ciurcina via nexa < nexa@server-nexa.polito.it> wrote:
Il 18/01/25 11:01, abregni ha scritto:
la responsabilità di chi usa l'AI ... **è di chi la usa**.
La responsabilità di chi disegna l'IA **è di chi la disegna**.
Come dice Jessica Rabbit: “I’m not bad, I’m just drawn that way.”.
m.c.
-- Avv. Marco Ciurcina Via San Quintino, 32 10121 Torino TO tel +39 011 4546112 cell +39 335 6650910
Il 18/01/25 10:40, Alessandro Brolpito ha scritto:
Un breve video reportage focalizzato sul conflitto tra Israele e Hamas. La tesi é che dietro il 7 ottobre e il disastroso bilancio di morti a Gaza c'è un unico grande respisabile: la decisione (politica) di affidarsi alla IA per, prima, la valutazione del rischio Hamas e, successivamente, per definire i targets e le morti di civili tollerabili, come effetto collaterale dei bombardamenti. https://www.repubblica.it/rubriche/metropolis/2025/01/17/video/gaza_paradoss... Chi è responsabile da un punto di vista giuridico di questi morti? Che sia almeno tregua a tutto questo, da domani. testo del podcast citato, estratto con Macwhisper: Quella di Gaza è la prima guerra in cui a decidere chi doveva essere ucciso ad arbitrare vita e morte sono state le macchine. Queste scelte sono state affidate per la prima volta pressoché integralmente a dei sofisticati sistemi di intelligenza artificiale, tra l'altro animati dal machine learning, cioè dalla capacità di apprendimento. Le stesse macchine, gli stessi software, riuscivano a migliorare le loro capacità. Alla fine a ordinare il bombardamento c'era sempre un essere umano, ma tutto il processo decisionale, quello che i tecnici chiamano targeting, che porta a scegliere un bersaglio, che porta a scegliere la persona da uccidere, che porta a valutare qual è il rischio di coinvolgere civili innocenti in quell'attacco, è stato affidato a dei software. Noi non sappiamo quante delle 46.000 persone morte finora a Gaza e oltre 100.000 ferite, tra cui sicuramente una stragrande maggioranza di civili e tantissime donne e bambini che nulla avevano a che vedere con Hamas, sono state uccise o colpite per effetto di questo selezionamento fatto dall'intelligenza artificiale. Ma c'è un dato, uno dei tanti dati raccapriccianti che emergono in una serie di inchieste realizzate dal New York Times, dal Washington Post, da giornali indipendenti israeliani. Nel primo mese della campagna di bombardamenti decisa da Israele risposta all'incursione di Hamas del 7 ottobre che ha provocato 1200 vittime e il rapimento di 250 cittadini israeliani, soltanto nel primo mese 12.000 dei bersagli bombardati sono stati selezionati dall'intelligenza artificiale. Questo è un grande cambiamento nella cultura della guerra e in uno degli aspetti che proprio Israele, paese che lotta per la sua sovravvivenza, aveva particolarmente curato, e cioè come si arriva a scegliere chi va colpito e come si arriva a calcolare il rischio di coinvolgere civili nell'operazione. Israele aveva sempre mantenuto il controllo di questo processo nelle mani di analisti dell'intelligence di persone e in particolar modo aveva favorito una forma di cultura dell'allerta in cui anche il livello più basso di questa catena gerarchica, anche il sotto ufficiale, se aveva dei dubbi sull'attacco che stava per essere commesso, poteva prendere e rivolgersi direttamente al comandante in capo. Non solo, perché comunque Israele è una democrazia, è uno stato di diritto, nel processo per selezionare i bersagli e per creare questa sorta di archivio in cui c'erano tutti gli obiettivi che si potevano colpire in caso di conflitto con Hezbollah o in caso di conflitto con Hamas, alla fine del processo c'era sempre la figura di un avvocato militare che doveva valutare se l'operazione pianificata era o meno compatibile con le leggi. In 7 ottobre il fatto che Israele si sentisse minacciato nella sua stessa esistenza dall'incursione di Hamas ha spinto invece ad eliminare tutte queste regole. C'è un qualcosa di paradossale nella fiducia accordata a questi sistemi di intelligenza artificiale, di machine learning, di big data, perché proprio il fatto di aver affidato la sorveglianza a queste macchine, affidato la gestione dell'intelligenza preventiva a questi sistemi elettronici invece che non agli agenti sul campo, è stato uno degli elementi che ha permesso ad Hamas di colpire totalmente di sorpresa le persone. Si è sentito dire tante volte che è stata l'assenza di la vecchia "Humint", l'intelligenza fatta dalle persone per favorire lo sviluppo di tutti questi sistemi informatici ed elettronici che in qualche modo ha lasciato indifeso Israele. Eppure, in maniera paradossale, la risposta al 7 ottobre viene gestita da queste macchine. C'è un'enorme raccolta di informazioni che viene fatta con i droni, con i satelliti, con le intercettazioni di tutte le comunicazioni telefoniche, delle comunicazioni internet, delle chat, con l'uso di spugne di dati sofisticatissime quali gli aerei F-35 che noi chiamiamo i caccia invisibili ma la cui vera natura è quella di essere gli straordinari raccoglitori di informazioni. Addirittura, per capirci, si usava il confronto tra foto satellitari scattate in periodi diversi per capire se il terreno era stato mosso e quindi poteva nascondere dei razzi che venivano sepolti prima dell'azione di Hamas. O è stato insegnato alle macchine, al loro meccanismo di machine learning, come riconoscere un certo tipo, un determinato tipo di tessuto che veniva più frequentemente utilizzato da Damas per coprire i missili messi nel terreno in modo tale che le macchine, questi sistemi informatici di analisi, potessero trovare questo tessuto all'interno delle foto satellitari scattate in continuazione sopra Gaza. Tutte queste informazioni poi venivano messe in una grande struttura di bidata chiamata The Pool, la piscina, e all'interno di questa struttura operavano due software, entrambi sviluppati dall'unità 8200 che è il reparto dell'esercito israeliano specializzato nell'intelligence elettronica e nella designazione dei bersagli e che ha avuto un ruolo fondamentale nella gestione di queste operazioni. All'interno di The Pool agivano due sistemi, uno chiamato The Gospel, il Vangelo, che si occupava di andare a scegliere gli obiettivi, quindi era soprattutto focalizzato su quelle che potevano essere i nasconditi di armi, i tunnel, tutto ciò che rappresentava le infrastrutture di Damas. L'altro invece, Lavender, Lavanda, nessuno sa perché sia stato scelto questo nome, si occupava di individuare le persone che erano presunti miliziani, presunti combattenti di Damas. Entrambi i sistemi avevano grandi limiti, limiti alcuni nel modo in cui venivano elaborate le informazioni, ad esempio la parola batik, che vuol dire melone in arabo, veniva utilizzata in codice spesso per indicare le bombe, ma all'interno della popolazione di Gaza era anche una parola di uso comune quando si tratta di mangiare, consumare, comprare dei meloni che sono molto diffusi nella Striscia, sono quasi uno dei simboli. Il sistema, pur sofisticato, non era così intelligente da riuscire a distinguere quando veniva usato per parlare di meloni o quando veniva usato invece per discutere di ordini. Questa debolezza linguistica, che prima veniva corretta con l'uso di esperti in carne e ossa, ha fatto sì che tanti bersagli siano stati scelti a caso, così come poi è stata pesantissima la decisione presa nelle prime ore dopo l'attacco di Hamas di cambiare le regole sulla valutazione del rischio per i civili. È stato possibile scatenare attacchi anche quando mettevano a rischio 20 civili. Questa è una cosa molto forte perché prima del 7 ottobre Israele tollerava solo in casi straordinari la possibilità che venisse messa a rischio la vita di 5 civili e in casi ancora più eccezionali che venisse messa a rischio la vita di 10 civili. Invece poter uccidere 20 persone innocenti pur di colpire un uomo di Hamas o un uomo della Jihad Islamica è diventata la regola dopo il 7 ottobre e lo è rimasta per le prime 5 settimane di guerra. Ma in questa fase ci sono stati, secondo il censimento della ONG britannica Airwards, 136 attacchi in cui sono morti più di 50 civili. Questo anche a causa di un altro dei difetti di valutazione di queste macchine a cui è stata affidata la scelta di vita o di morte. Queste macchine per valutare la presenza di civili stimavano il numero di cellulari attivi nella zona del bersaglio e lo comparavano con quello precedente alla guerra. Da ciò disumevano quanto era popolata quella zona, quante persone c'erano in quella zona, ignorando il fatto che il funzionamento dei cellulari a causa dell'assenza di corrente elettrica, a causa delle condizioni drammatiche, spesso era ridotto al minimo. Quindi c'erano tante persone che rispetto a prima del 7 ottobre non usavano, non potevano usare il cellulare. Questo ha portato a valutare un numero di civili presenti sul luogo di bombardamento di [Gronlund] in febbraio e ha contribuito a realizzare quella terribile strage che noi vediamo. Ecco, in tutte le operazioni su Gaza l'intelligenza artificiale, i big data, il machine learning hanno fornito le indicazioni, hanno selezionato bersagli spesso sbagliati e hanno sottovalutato il numero di vittime civili. Mentre invece in Ucraina noi sappiamo che già oggi entrambi gli eserciti stanno utilizzando intelligenza artificiale e big data per tutta la fase del combattimento, incluso quella di stabilire chi colpire. Le macchine decidono chi colpire e le colpiscono automaticamente. E quello che viene indicato proprio dagli esperti delle forze armate israeliane che hanno contribuito a generare questi enormi sistemi di algoritmi è che l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto orgoglioso, molto confidente delle sue capacità e tende a ritenersi superiore all'uomo. Sono le premesse di un futuro che è già presente e che si annuncia terribile.
alcune delle inchieste citate sono: Abraham, Yuval. «‘A mass assassination factory’: Inside Israel’s calculated bombing of Gaza». /+972 Magazine/, 30 novembre 2023. https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-.... ———. «‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza». /+972 Magazine/, 3 aprile 2024. https://www.972mag.com/lavender-ai-israeli-army-gaza/. McKernan, Bethan, e Harry Davies. «‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets». /The Guardian/, 3 aprile 2024, sez. World news. https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-.... questo il manuale israeliano prodotto dall'unità 8200: Y.S., Brigadier General. /The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World/. Independently Published, 2021. Davies, Harry, e Bethan McKernan. «Top Israeli spy chief exposes his true identity in online security lapse». /The Guardian/, 5 aprile 2024, sez. World news. https://www.theguardian.com/world/2024/apr/05/top-israeli-spy-chief-exposes-.... in parte ne avevamo già parlato qui in lista. la frase finale del podcast di Di Feo è il punto si cui riflettere, io credo:
l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto orgoglioso, molto confidente delle sue capacità e tende a ritenersi superiore all'uomo (mi piacerebbe sapere qual è la fonte su cui Di Feo si basa, non nel senso che dubiti dell'esistenza, ma che sarebbe interessante conoscerla, proprio) diciamo che l'umano volontariamente si asservisce alla macchina e con ciò crede di giustificarsi? perché quella esposta è una forma estrema di personalizzazione dei sistemi di IA: non solo 'ragionano' ma pure 'formano sentimenti'. come ha scritto Daniela, personalizzare i sistemi di IA deumanizza le persone. Maurizio
------------------------------------------------------------------------ s'il n'y a même plus l'humour pour nous alléger comment lutter prohom, comment lutter ------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Grazie della segnalazione e della trascrizione. Si qualificano più volte questi sistemi come "sofisticati". Mi pare che l'elemento caratteristico sia, al contrario, la grossolanità dei sistemi statistici adottati per l'eliminazione di persone. C'è un'integrazione totale dei sistemi di sorveglianza e profilazione a fini commerciali con quelli a finalità militare: gli stessi sistemi che sono così sofisticati da suggerirmi di acquistare una tavoletta del wc o un casco da moto quando ne ho appena acquistato uno sono utilizzati per identificare un essere umano da uccidere sulla base della sua appartenenza a un gruppo Whatsapp e da localizzarlo in eventuale compagnia di qualche centinaio di altre persone. Non ci affida a questi sistemi perché sono sofisticati o intelligenti, ma perché consentono l'automazione, l'industrializzazione di uno sterminio. E lo fanno sulla base degli stessi dati e delle stesse correlazioni estorti ed elaborate ad uso commerciale*. Un saluto, Daniela * <https://ainowinstitute.org/news/announcement/new-ai-now-paper-highlights-ris...> ________________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di maurizio lana <maurizio.lana@uniupo.it> Inviato: sabato 18 gennaio 2025 14:03 A: nexa@server-nexa.polito.it Oggetto: Re: [nexa] Il ruolo dell'IA nei conflitti Il 18/01/25 10:40, Alessandro Brolpito ha scritto: Un breve video reportage focalizzato sul conflitto tra Israele e Hamas. La tesi é che dietro il 7 ottobre e il disastroso bilancio di morti a Gaza c'è un unico grande respisabile: la decisione (politica) di affidarsi alla IA per, prima, la valutazione del rischio Hamas e, successivamente, per definire i targets e le morti di civili tollerabili, come effetto collaterale dei bombardamenti. https://www.repubblica.it/rubriche/metropolis/2025/01/17/video/gaza_paradoss... Chi è responsabile da un punto di vista giuridico di questi morti? Che sia almeno tregua a tutto questo, da domani. testo del podcast citato, estratto con Macwhisper: Quella di Gaza è la prima guerra in cui a decidere chi doveva essere ucciso ad arbitrare vita e morte sono state le macchine. Queste scelte sono state affidate per la prima volta pressoché integralmente a dei sofisticati sistemi di intelligenza artificiale, tra l'altro animati dal machine learning, cioè dalla capacità di apprendimento. Le stesse macchine, gli stessi software, riuscivano a migliorare le loro capacità. Alla fine a ordinare il bombardamento c'era sempre un essere umano, ma tutto il processo decisionale, quello che i tecnici chiamano targeting, che porta a scegliere un bersaglio, che porta a scegliere la persona da uccidere, che porta a valutare qual è il rischio di coinvolgere civili innocenti in quell'attacco, è stato affidato a dei software. Noi non sappiamo quante delle 46.000 persone morte finora a Gaza e oltre 100.000 ferite, tra cui sicuramente una stragrande maggioranza di civili e tantissime donne e bambini che nulla avevano a che vedere con Hamas, sono state uccise o colpite per effetto di questo selezionamento fatto dall'intelligenza artificiale. Ma c'è un dato, uno dei tanti dati raccapriccianti che emergono in una serie di inchieste realizzate dal New York Times, dal Washington Post, da giornali indipendenti israeliani. Nel primo mese della campagna di bombardamenti decisa da Israele risposta all'incursione di Hamas del 7 ottobre che ha provocato 1200 vittime e il rapimento di 250 cittadini israeliani, soltanto nel primo mese 12.000 dei bersagli bombardati sono stati selezionati dall'intelligenza artificiale. Questo è un grande cambiamento nella cultura della guerra e in uno degli aspetti che proprio Israele, paese che lotta per la sua sovravvivenza, aveva particolarmente curato, e cioè come si arriva a scegliere chi va colpito e come si arriva a calcolare il rischio di coinvolgere civili nell'operazione. Israele aveva sempre mantenuto il controllo di questo processo nelle mani di analisti dell'intelligence di persone e in particolar modo aveva favorito una forma di cultura dell'allerta in cui anche il livello più basso di questa catena gerarchica, anche il sotto ufficiale, se aveva dei dubbi sull'attacco che stava per essere commesso, poteva prendere e rivolgersi direttamente al comandante in capo. Non solo, perché comunque Israele è una democrazia, è uno stato di diritto, nel processo per selezionare i bersagli e per creare questa sorta di archivio in cui c'erano tutti gli obiettivi che si potevano colpire in caso di conflitto con Hezbollah o in caso di conflitto con Hamas, alla fine del processo c'era sempre la figura di un avvocato militare che doveva valutare se l'operazione pianificata era o meno compatibile con le leggi. In 7 ottobre il fatto che Israele si sentisse minacciato nella sua stessa esistenza dall'incursione di Hamas ha spinto invece ad eliminare tutte queste regole. C'è un qualcosa di paradossale nella fiducia accordata a questi sistemi di intelligenza artificiale, di machine learning, di big data, perché proprio il fatto di aver affidato la sorveglianza a queste macchine, affidato la gestione dell'intelligenza preventiva a questi sistemi elettronici invece che non agli agenti sul campo, è stato uno degli elementi che ha permesso ad Hamas di colpire totalmente di sorpresa le persone. Si è sentito dire tante volte che è stata l'assenza di la vecchia "Humint", l'intelligenza fatta dalle persone per favorire lo sviluppo di tutti questi sistemi informatici ed elettronici che in qualche modo ha lasciato indifeso Israele. Eppure, in maniera paradossale, la risposta al 7 ottobre viene gestita da queste macchine. C'è un'enorme raccolta di informazioni che viene fatta con i droni, con i satelliti, con le intercettazioni di tutte le comunicazioni telefoniche, delle comunicazioni internet, delle chat, con l'uso di spugne di dati sofisticatissime quali gli aerei F-35 che noi chiamiamo i caccia invisibili ma la cui vera natura è quella di essere gli straordinari raccoglitori di informazioni. Addirittura, per capirci, si usava il confronto tra foto satellitari scattate in periodi diversi per capire se il terreno era stato mosso e quindi poteva nascondere dei razzi che venivano sepolti prima dell'azione di Hamas. O è stato insegnato alle macchine, al loro meccanismo di machine learning, come riconoscere un certo tipo, un determinato tipo di tessuto che veniva più frequentemente utilizzato da Damas per coprire i missili messi nel terreno in modo tale che le macchine, questi sistemi informatici di analisi, potessero trovare questo tessuto all'interno delle foto satellitari scattate in continuazione sopra Gaza. Tutte queste informazioni poi venivano messe in una grande struttura di bidata chiamata The Pool, la piscina, e all'interno di questa struttura operavano due software, entrambi sviluppati dall'unità 8200 che è il reparto dell'esercito israeliano specializzato nell'intelligence elettronica e nella designazione dei bersagli e che ha avuto un ruolo fondamentale nella gestione di queste operazioni. All'interno di The Pool agivano due sistemi, uno chiamato The Gospel, il Vangelo, che si occupava di andare a scegliere gli obiettivi, quindi era soprattutto focalizzato su quelle che potevano essere i nasconditi di armi, i tunnel, tutto ciò che rappresentava le infrastrutture di Damas. L'altro invece, Lavender, Lavanda, nessuno sa perché sia stato scelto questo nome, si occupava di individuare le persone che erano presunti miliziani, presunti combattenti di Damas. Entrambi i sistemi avevano grandi limiti, limiti alcuni nel modo in cui venivano elaborate le informazioni, ad esempio la parola batik, che vuol dire melone in arabo, veniva utilizzata in codice spesso per indicare le bombe, ma all'interno della popolazione di Gaza era anche una parola di uso comune quando si tratta di mangiare, consumare, comprare dei meloni che sono molto diffusi nella Striscia, sono quasi uno dei simboli. Il sistema, pur sofisticato, non era così intelligente da riuscire a distinguere quando veniva usato per parlare di meloni o quando veniva usato invece per discutere di ordini. Questa debolezza linguistica, che prima veniva corretta con l'uso di esperti in carne e ossa, ha fatto sì che tanti bersagli siano stati scelti a caso, così come poi è stata pesantissima la decisione presa nelle prime ore dopo l'attacco di Hamas di cambiare le regole sulla valutazione del rischio per i civili. È stato possibile scatenare attacchi anche quando mettevano a rischio 20 civili. Questa è una cosa molto forte perché prima del 7 ottobre Israele tollerava solo in casi straordinari la possibilità che venisse messa a rischio la vita di 5 civili e in casi ancora più eccezionali che venisse messa a rischio la vita di 10 civili. Invece poter uccidere 20 persone innocenti pur di colpire un uomo di Hamas o un uomo della Jihad Islamica è diventata la regola dopo il 7 ottobre e lo è rimasta per le prime 5 settimane di guerra. Ma in questa fase ci sono stati, secondo il censimento della ONG britannica Airwards, 136 attacchi in cui sono morti più di 50 civili. Questo anche a causa di un altro dei difetti di valutazione di queste macchine a cui è stata affidata la scelta di vita o di morte. Queste macchine per valutare la presenza di civili stimavano il numero di cellulari attivi nella zona del bersaglio e lo comparavano con quello precedente alla guerra. Da ciò disumevano quanto era popolata quella zona, quante persone c'erano in quella zona, ignorando il fatto che il funzionamento dei cellulari a causa dell'assenza di corrente elettrica, a causa delle condizioni drammatiche, spesso era ridotto al minimo. Quindi c'erano tante persone che rispetto a prima del 7 ottobre non usavano, non potevano usare il cellulare. Questo ha portato a valutare un numero di civili presenti sul luogo di bombardamento di [Gronlund] in febbraio e ha contribuito a realizzare quella terribile strage che noi vediamo. Ecco, in tutte le operazioni su Gaza l'intelligenza artificiale, i big data, il machine learning hanno fornito le indicazioni, hanno selezionato bersagli spesso sbagliati e hanno sottovalutato il numero di vittime civili. Mentre invece in Ucraina noi sappiamo che già oggi entrambi gli eserciti stanno utilizzando intelligenza artificiale e big data per tutta la fase del combattimento, incluso quella di stabilire chi colpire. Le macchine decidono chi colpire e le colpiscono automaticamente. E quello che viene indicato proprio dagli esperti delle forze armate israeliane che hanno contribuito a generare questi enormi sistemi di algoritmi è che l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto orgoglioso, molto confidente delle sue capacità e tende a ritenersi superiore all'uomo. Sono le premesse di un futuro che è già presente e che si annuncia terribile. alcune delle inchieste citate sono: Abraham, Yuval. «‘A mass assassination factory’: Inside Israel’s calculated bombing of Gaza». +972 Magazine, 30 novembre 2023. https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-.... ———. «‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza». +972 Magazine, 3 aprile 2024. https://www.972mag.com/lavender-ai-israeli-army-gaza/. McKernan, Bethan, e Harry Davies. «‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets». The Guardian, 3 aprile 2024, sez. World news. https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-.... questo il manuale israeliano prodotto dall'unità 8200: Y.S., Brigadier General. The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World. Independently Published, 2021. Davies, Harry, e Bethan McKernan. «Top Israeli spy chief exposes his true identity in online security lapse». The Guardian, 5 aprile 2024, sez. World news. https://www.theguardian.com/world/2024/apr/05/top-israeli-spy-chief-exposes-.... in parte ne avevamo già parlato qui in lista. la frase finale del podcast di Di Feo è il punto si cui riflettere, io credo: l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto orgoglioso, molto confidente delle sue capacità e tende a ritenersi superiore all'uomo (mi piacerebbe sapere qual è la fonte su cui Di Feo si basa, non nel senso che dubiti dell'esistenza, ma che sarebbe interessante conoscerla, proprio) diciamo che l'umano volontariamente si asservisce alla macchina e con ciò crede di giustificarsi? perché quella esposta è una forma estrema di personalizzazione dei sistemi di IA: non solo 'ragionano' ma pure 'formano sentimenti'. come ha scritto Daniela, personalizzare i sistemi di IA deumanizza le persone. Maurizio ________________________________ s'il n'y a même plus l'humour pour nous alléger comment lutter prohom, comment lutter ________________________________ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Ciao Daniela, On Sat, 18 Jan 2025 at 16:33, Daniela Tafani <daniela.tafani@unipi.it> wrote:
Grazie della segnalazione e della trascrizione.
Si qualificano più volte questi sistemi come "sofisticati". Mi pare che l'elemento caratteristico sia, al contrario, la grossolanità dei sistemi statistici adottati per l'eliminazione di persone.
C'è un'integrazione totale dei sistemi di sorveglianza e profilazione a fini commerciali con quelli a finalità militare: gli stessi sistemi che sono così sofisticati da suggerirmi di acquistare una tavoletta del wc o un casco da moto quando ne ho appena acquistato uno sono utilizzati per identificare un essere umano da uccidere sulla base della sua appartenenza a un gruppo Whatsapp e da localizzarlo in eventuale compagnia di qualche centinaio di altre persone.
Esempio eclatante: "...la parola batik, che vuol dire melone in arabo, veniva utilizzata in codice spesso per indicare le bombe, ma all'interno della popolazione di Gaza era anche una parola di uso comune quando si tratta di mangiare, consumare, comprare dei meloni che sono molto diffusi nella Striscia, sono quasi uno dei simboli..." Ma, a mio avviso, la causa ancora più grave è stata la deregulation 'disumana', in tutti i sensi, dei processi decisionali: "... Questa debolezza linguistica, che prima veniva corretta con l'uso di esperti in carne e ossa, ha fatto sì che tanti bersagli siano stati scelti a caso, così come poi è stata pesantissima la decisione presa nelle prime ore dopo l'attacco di Hamas di cambiare le regole sulla valutazione del rischio per i civili." Siamo lontani anni luce dagli usi della IA ipotizzati da Juan Carlos The computerization of the world and international cooperation - Nexa Center for Internet & Society <https://nexa.polito.it/the-computerization-of-the-world-and-international-co...> Grazie Maurizio per la trascrizione Cordiali saluti, Alessandro
________________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di maurizio lana < maurizio.lana@uniupo.it> Inviato: sabato 18 gennaio 2025 14:03 A: nexa@server-nexa.polito.it Oggetto: Re: [nexa] Il ruolo dell'IA nei conflitti
Il 18/01/25 10:40, Alessandro Brolpito ha scritto: Un breve video reportage focalizzato sul conflitto tra Israele e Hamas. La tesi é che dietro il 7 ottobre e il disastroso bilancio di morti a Gaza c'è un unico grande respisabile: la decisione (politica) di affidarsi alla IA per, prima, la valutazione del rischio Hamas e, successivamente, per definire i targets e le morti di civili tollerabili, come effetto collaterale dei bombardamenti.
https://www.repubblica.it/rubriche/metropolis/2025/01/17/video/gaza_paradoss... Chi è responsabile da un punto di vista giuridico di questi morti? Che sia almeno tregua a tutto questo, da domani. testo del podcast citato, estratto con Macwhisper: Quella di Gaza è la prima guerra in cui a decidere chi doveva essere ucciso ad arbitrare vita e morte sono state le macchine. Queste scelte sono state affidate per la prima volta pressoché integralmente a dei sofisticati sistemi di intelligenza artificiale, tra l'altro animati dal machine learning, cioè dalla capacità di apprendimento. Le stesse macchine, gli stessi software, riuscivano a migliorare le loro capacità. Alla fine a ordinare il bombardamento c'era sempre un essere umano, ma tutto il processo decisionale, quello che i tecnici chiamano targeting, che porta a scegliere un bersaglio, che porta a scegliere la persona da uccidere, che porta a valutare qual è il rischio di coinvolgere civili innocenti in quell'attacco, è stato affidato a dei software. Noi non sappiamo quante delle 46.000 persone morte finora a Gaza e oltre 100.000 ferite, tra cui sicuramente una stragrande maggioranza di civili e tantissime donne e bambini che nulla avevano a che vedere con Hamas, sono state uccise o colpite per effetto di questo selezionamento fatto dall'intelligenza artificiale. Ma c'è un dato, uno dei tanti dati raccapriccianti che emergono in una serie di inchieste realizzate dal New York Times, dal Washington Post, da giornali indipendenti israeliani. Nel primo mese della campagna di bombardamenti decisa da Israele risposta all'incursione di Hamas del 7 ottobre che ha provocato 1200 vittime e il rapimento di 250 cittadini israeliani, soltanto nel primo mese 12.000 dei bersagli bombardati sono stati selezionati dall'intelligenza artificiale. Questo è un grande cambiamento nella cultura della guerra e in uno degli aspetti che proprio Israele, paese che lotta per la sua sovravvivenza, aveva particolarmente curato, e cioè come si arriva a scegliere chi va colpito e come si arriva a calcolare il rischio di coinvolgere civili nell'operazione. Israele aveva sempre mantenuto il controllo di questo processo nelle mani di analisti dell'intelligence di persone e in particolar modo aveva favorito una forma di cultura dell'allerta in cui anche il livello più basso di questa catena gerarchica, anche il sotto ufficiale, se aveva dei dubbi sull'attacco che stava per essere commesso, poteva prendere e rivolgersi direttamente al comandante in capo. Non solo, perché comunque Israele è una democrazia, è uno stato di diritto, nel processo per selezionare i bersagli e per creare questa sorta di archivio in cui c'erano tutti gli obiettivi che si potevano colpire in caso di conflitto con Hezbollah o in caso di conflitto con Hamas, alla fine del processo c'era sempre la figura di un avvocato militare che doveva valutare se l'operazione pianificata era o meno compatibile con le leggi. In 7 ottobre il fatto che Israele si sentisse minacciato nella sua stessa esistenza dall'incursione di Hamas ha spinto invece ad eliminare tutte queste regole. C'è un qualcosa di paradossale nella fiducia accordata a questi sistemi di intelligenza artificiale, di machine learning, di big data, perché proprio il fatto di aver affidato la sorveglianza a queste macchine, affidato la gestione dell'intelligenza preventiva a questi sistemi elettronici invece che non agli agenti sul campo, è stato uno degli elementi che ha permesso ad Hamas di colpire totalmente di sorpresa le persone. Si è sentito dire tante volte che è stata l'assenza di la vecchia "Humint", l'intelligenza fatta dalle persone per favorire lo sviluppo di tutti questi sistemi informatici ed elettronici che in qualche modo ha lasciato indifeso Israele. Eppure, in maniera paradossale, la risposta al 7 ottobre viene gestita da queste macchine. C'è un'enorme raccolta di informazioni che viene fatta con i droni, con i satelliti, con le intercettazioni di tutte le comunicazioni telefoniche, delle comunicazioni internet, delle chat, con l'uso di spugne di dati sofisticatissime quali gli aerei F-35 che noi chiamiamo i caccia invisibili ma la cui vera natura è quella di essere gli straordinari raccoglitori di informazioni. Addirittura, per capirci, si usava il confronto tra foto satellitari scattate in periodi diversi per capire se il terreno era stato mosso e quindi poteva nascondere dei razzi che venivano sepolti prima dell'azione di Hamas. O è stato insegnato alle macchine, al loro meccanismo di machine learning, come riconoscere un certo tipo, un determinato tipo di tessuto che veniva più frequentemente utilizzato da Damas per coprire i missili messi nel terreno in modo tale che le macchine, questi sistemi informatici di analisi, potessero trovare questo tessuto all'interno delle foto satellitari scattate in continuazione sopra Gaza. Tutte queste informazioni poi venivano messe in una grande struttura di bidata chiamata The Pool, la piscina, e all'interno di questa struttura operavano due software, entrambi sviluppati dall'unità 8200 che è il reparto dell'esercito israeliano specializzato nell'intelligence elettronica e nella designazione dei bersagli e che ha avuto un ruolo fondamentale nella gestione di queste operazioni. All'interno di The Pool agivano due sistemi, uno chiamato The Gospel, il Vangelo, che si occupava di andare a scegliere gli obiettivi, quindi era soprattutto focalizzato su quelle che potevano essere i nasconditi di armi, i tunnel, tutto ciò che rappresentava le infrastrutture di Damas. L'altro invece, Lavender, Lavanda, nessuno sa perché sia stato scelto questo nome, si occupava di individuare le persone che erano presunti miliziani, presunti combattenti di Damas. Entrambi i sistemi avevano grandi limiti, limiti alcuni nel modo in cui venivano elaborate le informazioni, ad esempio la parola batik, che vuol dire melone in arabo, veniva utilizzata in codice spesso per indicare le bombe, ma all'interno della popolazione di Gaza era anche una parola di uso comune quando si tratta di mangiare, consumare, comprare dei meloni che sono molto diffusi nella Striscia, sono quasi uno dei simboli. Il sistema, pur sofisticato, non era così intelligente da riuscire a distinguere quando veniva usato per parlare di meloni o quando veniva usato invece per discutere di ordini. Questa debolezza linguistica, che prima veniva corretta con l'uso di esperti in carne e ossa, ha fatto sì che tanti bersagli siano stati scelti a caso, così come poi è stata pesantissima la decisione presa nelle prime ore dopo l'attacco di Hamas di cambiare le regole sulla valutazione del rischio per i civili. È stato possibile scatenare attacchi anche quando mettevano a rischio 20 civili. Questa è una cosa molto forte perché prima del 7 ottobre Israele tollerava solo in casi straordinari la possibilità che venisse messa a rischio la vita di 5 civili e in casi ancora più eccezionali che venisse messa a rischio la vita di 10 civili. Invece poter uccidere 20 persone innocenti pur di colpire un uomo di Hamas o un uomo della Jihad Islamica è diventata la regola dopo il 7 ottobre e lo è rimasta per le prime 5 settimane di guerra. Ma in questa fase ci sono stati, secondo il censimento della ONG britannica Airwards, 136 attacchi in cui sono morti più di 50 civili. Questo anche a causa di un altro dei difetti di valutazione di queste macchine a cui è stata affidata la scelta di vita o di morte. Queste macchine per valutare la presenza di civili stimavano il numero di cellulari attivi nella zona del bersaglio e lo comparavano con quello precedente alla guerra. Da ciò disumevano quanto era popolata quella zona, quante persone c'erano in quella zona, ignorando il fatto che il funzionamento dei cellulari a causa dell'assenza di corrente elettrica, a causa delle condizioni drammatiche, spesso era ridotto al minimo. Quindi c'erano tante persone che rispetto a prima del 7 ottobre non usavano, non potevano usare il cellulare. Questo ha portato a valutare un numero di civili presenti sul luogo di bombardamento di [Gronlund] in febbraio e ha contribuito a realizzare quella terribile strage che noi vediamo. Ecco, in tutte le operazioni su Gaza l'intelligenza artificiale, i big data, il machine learning hanno fornito le indicazioni, hanno selezionato bersagli spesso sbagliati e hanno sottovalutato il numero di vittime civili. Mentre invece in Ucraina noi sappiamo che già oggi entrambi gli eserciti stanno utilizzando intelligenza artificiale e big data per tutta la fase del combattimento, incluso quella di stabilire chi colpire. Le macchine decidono chi colpire e le colpiscono automaticamente. E quello che viene indicato proprio dagli esperti delle forze armate israeliane che hanno contribuito a generare questi enormi sistemi di algoritmi è che l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto orgoglioso, molto confidente delle sue capacità e tende a ritenersi superiore all'uomo. Sono le premesse di un futuro che è già presente e che si annuncia terribile.
alcune delle inchieste citate sono: Abraham, Yuval. «‘A mass assassination factory’: Inside Israel’s calculated bombing of Gaza». +972 Magazine, 30 novembre 2023. https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-... . ———. «‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza». +972 Magazine, 3 aprile 2024. https://www.972mag.com/lavender-ai-israeli-army-gaza/. McKernan, Bethan, e Harry Davies. «‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets». The Guardian, 3 aprile 2024, sez. World news. https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-... .
questo il manuale israeliano prodotto dall'unità 8200: Y.S., Brigadier General. The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World. Independently Published, 2021. Davies, Harry, e Bethan McKernan. «Top Israeli spy chief exposes his true identity in online security lapse». The Guardian, 5 aprile 2024, sez. World news. https://www.theguardian.com/world/2024/apr/05/top-israeli-spy-chief-exposes-... .
in parte ne avevamo già parlato qui in lista. la frase finale del podcast di Di Feo è il punto si cui riflettere, io credo: l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto orgoglioso, molto confidente delle sue capacità e tende a ritenersi superiore all'uomo (mi piacerebbe sapere qual è la fonte su cui Di Feo si basa, non nel senso che dubiti dell'esistenza, ma che sarebbe interessante conoscerla, proprio) diciamo che l'umano volontariamente si asservisce alla macchina e con ciò crede di giustificarsi? perché quella esposta è una forma estrema di personalizzazione dei sistemi di IA: non solo 'ragionano' ma pure 'formano sentimenti'. come ha scritto Daniela, personalizzare i sistemi di IA deumanizza le persone. Maurizio
________________________________
s'il n'y a même plus l'humour pour nous alléger comment lutter prohom, comment lutter
________________________________ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Se gli israeliani hanno bombardato qualcuno perché aveva scritto 'batik', la colpa non è dell'AI ma di Kleene che ha teorizzato le regular expression negli anni '50 e Unix che le le ha rese disponibili a tutti negli anni '60 con il 'grep'. Mi sembra evidente che l'acronimo AI sia stato utilizzato per fare 'moral washing' dei crimini umanitari e per sviare l'attenzione dell'opinione pubblica, che infatti, davanti ai bambini massacrati, sta qui a parlare di AI. G. On Sat, 18 Jan 2025 at 17:47, Alessandro Brolpito <abrolpito@gmail.com> wrote:
Ciao Daniela,
On Sat, 18 Jan 2025 at 16:33, Daniela Tafani <daniela.tafani@unipi.it> wrote:
Grazie della segnalazione e della trascrizione.
Si qualificano più volte questi sistemi come "sofisticati". Mi pare che l'elemento caratteristico sia, al contrario, la grossolanità dei sistemi statistici adottati per l'eliminazione di persone.
C'è un'integrazione totale dei sistemi di sorveglianza e profilazione a fini commerciali con quelli a finalità militare: gli stessi sistemi che sono così sofisticati da suggerirmi di acquistare una tavoletta del wc o un casco da moto quando ne ho appena acquistato uno sono utilizzati per identificare un essere umano da uccidere sulla base della sua appartenenza a un gruppo Whatsapp e da localizzarlo in eventuale compagnia di qualche centinaio di altre persone.
Esempio eclatante: "...la parola batik, che vuol dire melone in arabo, veniva utilizzata in codice spesso per indicare le bombe, ma all'interno della popolazione di Gaza era anche una parola di uso comune quando si tratta di mangiare, consumare, comprare dei meloni che sono molto diffusi nella Striscia, sono quasi uno dei simboli..."
Ma, a mio avviso, la causa ancora più grave è stata la deregulation 'disumana', in tutti i sensi, dei processi decisionali: "... Questa debolezza linguistica, che prima veniva corretta con l'uso di esperti in carne e ossa, ha fatto sì che tanti bersagli siano stati scelti a caso, così come poi è stata pesantissima la decisione presa nelle prime ore dopo l'attacco di Hamas di cambiare le regole sulla valutazione del rischio per i civili."
Siamo lontani anni luce dagli usi della IA ipotizzati da Juan Carlos The computerization of the world and international cooperation - Nexa Center for Internet & Society <https://nexa.polito.it/the-computerization-of-the-world-and-international-co...>
Grazie Maurizio per la trascrizione Cordiali saluti, Alessandro
________________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di maurizio lana <maurizio.lana@uniupo.it> Inviato: sabato 18 gennaio 2025 14:03 A: nexa@server-nexa.polito.it Oggetto: Re: [nexa] Il ruolo dell'IA nei conflitti
Il 18/01/25 10:40, Alessandro Brolpito ha scritto: Un breve video reportage focalizzato sul conflitto tra Israele e Hamas. La tesi é che dietro il 7 ottobre e il disastroso bilancio di morti a Gaza c'è un unico grande respisabile: la decisione (politica) di affidarsi alla IA per, prima, la valutazione del rischio Hamas e, successivamente, per definire i targets e le morti di civili tollerabili, come effetto collaterale dei bombardamenti.
https://www.repubblica.it/rubriche/metropolis/2025/01/17/video/gaza_paradoss... Chi è responsabile da un punto di vista giuridico di questi morti? Che sia almeno tregua a tutto questo, da domani. testo del podcast citato, estratto con Macwhisper: Quella di Gaza è la prima guerra in cui a decidere chi doveva essere ucciso ad arbitrare vita e morte sono state le macchine. Queste scelte sono state affidate per la prima volta pressoché integralmente a dei sofisticati sistemi di intelligenza artificiale, tra l'altro animati dal machine learning, cioè dalla capacità di apprendimento. Le stesse macchine, gli stessi software, riuscivano a migliorare le loro capacità. Alla fine a ordinare il bombardamento c'era sempre un essere umano, ma tutto il processo decisionale, quello che i tecnici chiamano targeting, che porta a scegliere un bersaglio, che porta a scegliere la persona da uccidere, che porta a valutare qual è il rischio di coinvolgere civili innocenti in quell'attacco, è stato affidato a dei software. Noi non sappiamo quante delle 46.000 persone morte finora a Gaza e oltre 100.000 ferite, tra cui sicuramente una stragrande maggioranza di civili e tantissime donne e bambini che nulla avevano a che vedere con Hamas, sono state uccise o colpite per effetto di questo selezionamento fatto dall'intelligenza artificiale. Ma c'è un dato, uno dei tanti dati raccapriccianti che emergono in una serie di inchieste realizzate dal New York Times, dal Washington Post, da giornali indipendenti israeliani. Nel primo mese della campagna di bombardamenti decisa da Israele risposta all'incursione di Hamas del 7 ottobre che ha provocato 1200 vittime e il rapimento di 250 cittadini israeliani, soltanto nel primo mese 12.000 dei bersagli bombardati sono stati selezionati dall'intelligenza artificiale. Questo è un grande cambiamento nella cultura della guerra e in uno degli aspetti che proprio Israele, paese che lotta per la sua sovravvivenza, aveva particolarmente curato, e cioè come si arriva a scegliere chi va colpito e come si arriva a calcolare il rischio di coinvolgere civili nell'operazione. Israele aveva sempre mantenuto il controllo di questo processo nelle mani di analisti dell'intelligence di persone e in particolar modo aveva favorito una forma di cultura dell'allerta in cui anche il livello più basso di questa catena gerarchica, anche il sotto ufficiale, se aveva dei dubbi sull'attacco che stava per essere commesso, poteva prendere e rivolgersi direttamente al comandante in capo. Non solo, perché comunque Israele è una democrazia, è uno stato di diritto, nel processo per selezionare i bersagli e per creare questa sorta di archivio in cui c'erano tutti gli obiettivi che si potevano colpire in caso di conflitto con Hezbollah o in caso di conflitto con Hamas, alla fine del processo c'era sempre la figura di un avvocato militare che doveva valutare se l'operazione pianificata era o meno compatibile con le leggi. In 7 ottobre il fatto che Israele si sentisse minacciato nella sua stessa esistenza dall'incursione di Hamas ha spinto invece ad eliminare tutte queste regole. C'è un qualcosa di paradossale nella fiducia accordata a questi sistemi di intelligenza artificiale, di machine learning, di big data, perché proprio il fatto di aver affidato la sorveglianza a queste macchine, affidato la gestione dell'intelligenza preventiva a questi sistemi elettronici invece che non agli agenti sul campo, è stato uno degli elementi che ha permesso ad Hamas di colpire totalmente di sorpresa le persone. Si è sentito dire tante volte che è stata l'assenza di la vecchia "Humint", l'intelligenza fatta dalle persone per favorire lo sviluppo di tutti questi sistemi informatici ed elettronici che in qualche modo ha lasciato indifeso Israele. Eppure, in maniera paradossale, la risposta al 7 ottobre viene gestita da queste macchine. C'è un'enorme raccolta di informazioni che viene fatta con i droni, con i satelliti, con le intercettazioni di tutte le comunicazioni telefoniche, delle comunicazioni internet, delle chat, con l'uso di spugne di dati sofisticatissime quali gli aerei F-35 che noi chiamiamo i caccia invisibili ma la cui vera natura è quella di essere gli straordinari raccoglitori di informazioni. Addirittura, per capirci, si usava il confronto tra foto satellitari scattate in periodi diversi per capire se il terreno era stato mosso e quindi poteva nascondere dei razzi che venivano sepolti prima dell'azione di Hamas. O è stato insegnato alle macchine, al loro meccanismo di machine learning, come riconoscere un certo tipo, un determinato tipo di tessuto che veniva più frequentemente utilizzato da Damas per coprire i missili messi nel terreno in modo tale che le macchine, questi sistemi informatici di analisi, potessero trovare questo tessuto all'interno delle foto satellitari scattate in continuazione sopra Gaza. Tutte queste informazioni poi venivano messe in una grande struttura di bidata chiamata The Pool, la piscina, e all'interno di questa struttura operavano due software, entrambi sviluppati dall'unità 8200 che è il reparto dell'esercito israeliano specializzato nell'intelligence elettronica e nella designazione dei bersagli e che ha avuto un ruolo fondamentale nella gestione di queste operazioni. All'interno di The Pool agivano due sistemi, uno chiamato The Gospel, il Vangelo, che si occupava di andare a scegliere gli obiettivi, quindi era soprattutto focalizzato su quelle che potevano essere i nasconditi di armi, i tunnel, tutto ciò che rappresentava le infrastrutture di Damas. L'altro invece, Lavender, Lavanda, nessuno sa perché sia stato scelto questo nome, si occupava di individuare le persone che erano presunti miliziani, presunti combattenti di Damas. Entrambi i sistemi avevano grandi limiti, limiti alcuni nel modo in cui venivano elaborate le informazioni, ad esempio la parola batik, che vuol dire melone in arabo, veniva utilizzata in codice spesso per indicare le bombe, ma all'interno della popolazione di Gaza era anche una parola di uso comune quando si tratta di mangiare, consumare, comprare dei meloni che sono molto diffusi nella Striscia, sono quasi uno dei simboli. Il sistema, pur sofisticato, non era così intelligente da riuscire a distinguere quando veniva usato per parlare di meloni o quando veniva usato invece per discutere di ordini. Questa debolezza linguistica, che prima veniva corretta con l'uso di esperti in carne e ossa, ha fatto sì che tanti bersagli siano stati scelti a caso, così come poi è stata pesantissima la decisione presa nelle prime ore dopo l'attacco di Hamas di cambiare le regole sulla valutazione del rischio per i civili. È stato possibile scatenare attacchi anche quando mettevano a rischio 20 civili. Questa è una cosa molto forte perché prima del 7 ottobre Israele tollerava solo in casi straordinari la possibilità che venisse messa a rischio la vita di 5 civili e in casi ancora più eccezionali che venisse messa a rischio la vita di 10 civili. Invece poter uccidere 20 persone innocenti pur di colpire un uomo di Hamas o un uomo della Jihad Islamica è diventata la regola dopo il 7 ottobre e lo è rimasta per le prime 5 settimane di guerra. Ma in questa fase ci sono stati, secondo il censimento della ONG britannica Airwards, 136 attacchi in cui sono morti più di 50 civili. Questo anche a causa di un altro dei difetti di valutazione di queste macchine a cui è stata affidata la scelta di vita o di morte. Queste macchine per valutare la presenza di civili stimavano il numero di cellulari attivi nella zona del bersaglio e lo comparavano con quello precedente alla guerra. Da ciò disumevano quanto era popolata quella zona, quante persone c'erano in quella zona, ignorando il fatto che il funzionamento dei cellulari a causa dell'assenza di corrente elettrica, a causa delle condizioni drammatiche, spesso era ridotto al minimo. Quindi c'erano tante persone che rispetto a prima del 7 ottobre non usavano, non potevano usare il cellulare. Questo ha portato a valutare un numero di civili presenti sul luogo di bombardamento di [Gronlund] in febbraio e ha contribuito a realizzare quella terribile strage che noi vediamo. Ecco, in tutte le operazioni su Gaza l'intelligenza artificiale, i big data, il machine learning hanno fornito le indicazioni, hanno selezionato bersagli spesso sbagliati e hanno sottovalutato il numero di vittime civili. Mentre invece in Ucraina noi sappiamo che già oggi entrambi gli eserciti stanno utilizzando intelligenza artificiale e big data per tutta la fase del combattimento, incluso quella di stabilire chi colpire. Le macchine decidono chi colpire e le colpiscono automaticamente. E quello che viene indicato proprio dagli esperti delle forze armate israeliane che hanno contribuito a generare questi enormi sistemi di algoritmi è che l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto orgoglioso, molto confidente delle sue capacità e tende a ritenersi superiore all'uomo. Sono le premesse di un futuro che è già presente e che si annuncia terribile.
alcune delle inchieste citate sono: Abraham, Yuval. «‘A mass assassination factory’: Inside Israel’s calculated bombing of Gaza». +972 Magazine, 30 novembre 2023. https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-... . ———. «‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza». +972 Magazine, 3 aprile 2024. https://www.972mag.com/lavender-ai-israeli-army-gaza/. McKernan, Bethan, e Harry Davies. «‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets». The Guardian, 3 aprile 2024, sez. World news. https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-... .
questo il manuale israeliano prodotto dall'unità 8200: Y.S., Brigadier General. The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World. Independently Published, 2021. Davies, Harry, e Bethan McKernan. «Top Israeli spy chief exposes his true identity in online security lapse». The Guardian, 5 aprile 2024, sez. World news. https://www.theguardian.com/world/2024/apr/05/top-israeli-spy-chief-exposes-... .
in parte ne avevamo già parlato qui in lista. la frase finale del podcast di Di Feo è il punto si cui riflettere, io credo: l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto orgoglioso, molto confidente delle sue capacità e tende a ritenersi superiore all'uomo (mi piacerebbe sapere qual è la fonte su cui Di Feo si basa, non nel senso che dubiti dell'esistenza, ma che sarebbe interessante conoscerla, proprio) diciamo che l'umano volontariamente si asservisce alla macchina e con ciò crede di giustificarsi? perché quella esposta è una forma estrema di personalizzazione dei sistemi di IA: non solo 'ragionano' ma pure 'formano sentimenti'. come ha scritto Daniela, personalizzare i sistemi di IA deumanizza le persone. Maurizio
________________________________
s'il n'y a même plus l'humour pour nous alléger comment lutter prohom, comment lutter
________________________________ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
STANDING OVATION !! ----- Original Message ----- From: Guido Vetere To: Alessandro Brolpito Cc: nexa@server-nexa.polito.it Sent: Saturday, January 18, 2025 6:59 PM Subject: Re: [nexa] Il ruolo dell'IA nei conflitti Se gli israeliani hanno bombardato qualcuno perché aveva scritto 'batik', la colpa non è dell'AI ma di Kleene che ha teorizzato le regular expression negli anni '50 e Unix che le le ha rese disponibili a tutti negli anni '60 con il 'grep'. Mi sembra evidente che l'acronimo AI sia stato utilizzato per fare 'moral washing' dei crimini umanitari e per sviare l'attenzione dell'opinione pubblica, che infatti, davanti ai bambini massacrati, sta qui a parlare di AI. G. On Sat, 18 Jan 2025 at 17:47, Alessandro Brolpito <abrolpito@gmail.com> wrote: Ciao Daniela, On Sat, 18 Jan 2025 at 16:33, Daniela Tafani <daniela.tafani@unipi.it> wrote: Grazie della segnalazione e della trascrizione. Si qualificano più volte questi sistemi come "sofisticati". Mi pare che l'elemento caratteristico sia, al contrario, la grossolanità dei sistemi statistici adottati per l'eliminazione di persone. C'è un'integrazione totale dei sistemi di sorveglianza e profilazione a fini commerciali con quelli a finalità militare: gli stessi sistemi che sono così sofisticati da suggerirmi di acquistare una tavoletta del wc o un casco da moto quando ne ho appena acquistato uno sono utilizzati per identificare un essere umano da uccidere sulla base della sua appartenenza a un gruppo Whatsapp e da localizzarlo in eventuale compagnia di qualche centinaio di altre persone. Esempio eclatante: "...la parola batik, che vuol dire melone in arabo, veniva utilizzata in codice spesso per indicare le bombe, ma all'interno della popolazione di Gaza era anche una parola di uso comune quando si tratta di mangiare, consumare, comprare dei meloni che sono molto diffusi nella Striscia, sono quasi uno dei simboli..." Ma, a mio avviso, la causa ancora più grave è stata la deregulation 'disumana', in tutti i sensi, dei processi decisionali: "... Questa debolezza linguistica, che prima veniva corretta con l'uso di esperti in carne e ossa, ha fatto sì che tanti bersagli siano stati scelti a caso, così come poi è stata pesantissima la decisione presa nelle prime ore dopo l'attacco di Hamas di cambiare le regole sulla valutazione del rischio per i civili." Siamo lontani anni luce dagli usi della IA ipotizzati da Juan Carlos The computerization of the world and international cooperation - Nexa Center for Internet & Society Grazie Maurizio per la trascrizione Cordiali saluti, Alessandro ________________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di maurizio lana <maurizio.lana@uniupo.it> Inviato: sabato 18 gennaio 2025 14:03 A: nexa@server-nexa.polito.it Oggetto: Re: [nexa] Il ruolo dell'IA nei conflitti Il 18/01/25 10:40, Alessandro Brolpito ha scritto: Un breve video reportage focalizzato sul conflitto tra Israele e Hamas. La tesi é che dietro il 7 ottobre e il disastroso bilancio di morti a Gaza c'è un unico grande respisabile: la decisione (politica) di affidarsi alla IA per, prima, la valutazione del rischio Hamas e, successivamente, per definire i targets e le morti di civili tollerabili, come effetto collaterale dei bombardamenti. https://www.repubblica.it/rubriche/metropolis/2025/01/17/video/gaza_paradoss... Chi è responsabile da un punto di vista giuridico di questi morti? Che sia almeno tregua a tutto questo, da domani. testo del podcast citato, estratto con Macwhisper: Quella di Gaza è la prima guerra in cui a decidere chi doveva essere ucciso ad arbitrare vita e morte sono state le macchine. Queste scelte sono state affidate per la prima volta pressoché integralmente a dei sofisticati sistemi di intelligenza artificiale, tra l'altro animati dal machine learning, cioè dalla capacità di apprendimento. Le stesse macchine, gli stessi software, riuscivano a migliorare le loro capacità. Alla fine a ordinare il bombardamento c'era sempre un essere umano, ma tutto il processo decisionale, quello che i tecnici chiamano targeting, che porta a scegliere un bersaglio, che porta a scegliere la persona da uccidere, che porta a valutare qual è il rischio di coinvolgere civili innocenti in quell'attacco, è stato affidato a dei software. Noi non sappiamo quante delle 46.000 persone morte finora a Gaza e oltre 100.000 ferite, tra cui sicuramente una stragrande maggioranza di civili e tantissime donne e bambini che nulla avevano a che vedere con Hamas, sono state uccise o colpite per effetto di questo selezionamento fatto dall'intelligenza artificiale. Ma c'è un dato, uno dei tanti dati raccapriccianti che emergono in una serie di inchieste realizzate dal New York Times, dal Washington Post, da giornali indipendenti israeliani. Nel primo mese della campagna di bombardamenti decisa da Israele risposta all'incursione di Hamas del 7 ottobre che ha provocato 1200 vittime e il rapimento di 250 cittadini israeliani, soltanto nel primo mese 12.000 dei bersagli bombardati sono stati selezionati dall'intelligenza artificiale. Questo è un grande cambiamento nella cultura della guerra e in uno degli aspetti che proprio Israele, paese che lotta per la sua sovravvivenza, aveva particolarmente curato, e cioè come si arriva a scegliere chi va colpito e come si arriva a calcolare il rischio di coinvolgere civili nell'operazione. Israele aveva sempre mantenuto il controllo di questo processo nelle mani di analisti dell'intelligence di persone e in particolar modo aveva favorito una forma di cultura dell'allerta in cui anche il livello più basso di questa catena gerarchica, anche il sotto ufficiale, se aveva dei dubbi sull'attacco che stava per essere commesso, poteva prendere e rivolgersi direttamente al comandante in capo. Non solo, perché comunque Israele è una democrazia, è uno stato di diritto, nel processo per selezionare i bersagli e per creare questa sorta di archivio in cui c'erano tutti gli obiettivi che si potevano colpire in caso di conflitto con Hezbollah o in caso di conflitto con Hamas, alla fine del processo c'era sempre la figura di un avvocato militare che doveva valutare se l'operazione pianificata era o meno compatibile con le leggi. In 7 ottobre il fatto che Israele si sentisse minacciato nella sua stessa esistenza dall'incursione di Hamas ha spinto invece ad eliminare tutte queste regole. C'è un qualcosa di paradossale nella fiducia accordata a questi sistemi di intelligenza artificiale, di machine learning, di big data, perché proprio il fatto di aver affidato la sorveglianza a queste macchine, affidato la gestione dell'intelligenza preventiva a questi sistemi elettronici invece che non agli agenti sul campo, è stato uno degli elementi che ha permesso ad Hamas di colpire totalmente di sorpresa le persone. Si è sentito dire tante volte che è stata l'assenza di la vecchia "Humint", l'intelligenza fatta dalle persone per favorire lo sviluppo di tutti questi sistemi informatici ed elettronici che in qualche modo ha lasciato indifeso Israele. Eppure, in maniera paradossale, la risposta al 7 ottobre viene gestita da queste macchine. C'è un'enorme raccolta di informazioni che viene fatta con i droni, con i satelliti, con le intercettazioni di tutte le comunicazioni telefoniche, delle comunicazioni internet, delle chat, con l'uso di spugne di dati sofisticatissime quali gli aerei F-35 che noi chiamiamo i caccia invisibili ma la cui vera natura è quella di essere gli straordinari raccoglitori di informazioni. Addirittura, per capirci, si usava il confronto tra foto satellitari scattate in periodi diversi per capire se il terreno era stato mosso e quindi poteva nascondere dei razzi che venivano sepolti prima dell'azione di Hamas. O è stato insegnato alle macchine, al loro meccanismo di machine learning, come riconoscere un certo tipo, un determinato tipo di tessuto che veniva più frequentemente utilizzato da Damas per coprire i missili messi nel terreno in modo tale che le macchine, questi sistemi informatici di analisi, potessero trovare questo tessuto all'interno delle foto satellitari scattate in continuazione sopra Gaza. Tutte queste informazioni poi venivano messe in una grande struttura di bidata chiamata The Pool, la piscina, e all'interno di questa struttura operavano due software, entrambi sviluppati dall'unità 8200 che è il reparto dell'esercito israeliano specializzato nell'intelligence elettronica e nella designazione dei bersagli e che ha avuto un ruolo fondamentale nella gestione di queste operazioni. All'interno di The Pool agivano due sistemi, uno chiamato The Gospel, il Vangelo, che si occupava di andare a scegliere gli obiettivi, quindi era soprattutto focalizzato su quelle che potevano essere i nasconditi di armi, i tunnel, tutto ciò che rappresentava le infrastrutture di Damas. L'altro invece, Lavender, Lavanda, nessuno sa perché sia stato scelto questo nome, si occupava di individuare le persone che erano presunti miliziani, presunti combattenti di Damas. Entrambi i sistemi avevano grandi limiti, limiti alcuni nel modo in cui venivano elaborate le informazioni, ad esempio la parola batik, che vuol dire melone in arabo, veniva utilizzata in codice spesso per indicare le bombe, ma all'interno della popolazione di Gaza era anche una parola di uso comune quando si tratta di mangiare, consumare, comprare dei meloni che sono molto diffusi nella Striscia, sono quasi uno dei simboli. Il sistema, pur sofisticato, non era così intelligente da riuscire a distinguere quando veniva usato per parlare di meloni o quando veniva usato invece per discutere di ordini. Questa debolezza linguistica, che prima veniva corretta con l'uso di esperti in carne e ossa, ha fatto sì che tanti bersagli siano stati scelti a caso, così come poi è stata pesantissima la decisione presa nelle prime ore dopo l'attacco di Hamas di cambiare le regole sulla valutazione del rischio per i civili. È stato possibile scatenare attacchi anche quando mettevano a rischio 20 civili. Questa è una cosa molto forte perché prima del 7 ottobre Israele tollerava solo in casi straordinari la possibilità che venisse messa a rischio la vita di 5 civili e in casi ancora più eccezionali che venisse messa a rischio la vita di 10 civili. Invece poter uccidere 20 persone innocenti pur di colpire un uomo di Hamas o un uomo della Jihad Islamica è diventata la regola dopo il 7 ottobre e lo è rimasta per le prime 5 settimane di guerra. Ma in questa fase ci sono stati, secondo il censimento della ONG britannica Airwards, 136 attacchi in cui sono morti più di 50 civili. Questo anche a causa di un altro dei difetti di valutazione di queste macchine a cui è stata affidata la scelta di vita o di morte. Queste macchine per valutare la presenza di civili stimavano il numero di cellulari attivi nella zona del bersaglio e lo comparavano con quello precedente alla guerra. Da ciò disumevano quanto era popolata quella zona, quante persone c'erano in quella zona, ignorando il fatto che il funzionamento dei cellulari a causa dell'assenza di corrente elettrica, a causa delle condizioni drammatiche, spesso era ridotto al minimo. Quindi c'erano tante persone che rispetto a prima del 7 ottobre non usavano, non potevano usare il cellulare. Questo ha portato a valutare un numero di civili presenti sul luogo di bombardamento di [Gronlund] in febbraio e ha contribuito a realizzare quella terribile strage che noi vediamo. Ecco, in tutte le operazioni su Gaza l'intelligenza artificiale, i big data, il machine learning hanno fornito le indicazioni, hanno selezionato bersagli spesso sbagliati e hanno sottovalutato il numero di vittime civili. Mentre invece in Ucraina noi sappiamo che già oggi entrambi gli eserciti stanno utilizzando intelligenza artificiale e big data per tutta la fase del combattimento, incluso quella di stabilire chi colpire. Le macchine decidono chi colpire e le colpiscono automaticamente. E quello che viene indicato proprio dagli esperti delle forze armate israeliane che hanno contribuito a generare questi enormi sistemi di algoritmi è che l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto orgoglioso, molto confidente delle sue capacità e tende a ritenersi superiore all'uomo. Sono le premesse di un futuro che è già presente e che si annuncia terribile. alcune delle inchieste citate sono: Abraham, Yuval. «‘A mass assassination factory’: Inside Israel’s calculated bombing of Gaza». +972 Magazine, 30 novembre 2023. https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-.... ———. «‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza». +972 Magazine, 3 aprile 2024. https://www.972mag.com/lavender-ai-israeli-army-gaza/. McKernan, Bethan, e Harry Davies. «‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets». The Guardian, 3 aprile 2024, sez. World news. https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-.... questo il manuale israeliano prodotto dall'unità 8200: Y.S., Brigadier General. The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World. Independently Published, 2021. Davies, Harry, e Bethan McKernan. «Top Israeli spy chief exposes his true identity in online security lapse». The Guardian, 5 aprile 2024, sez. World news. https://www.theguardian.com/world/2024/apr/05/top-israeli-spy-chief-exposes-.... in parte ne avevamo già parlato qui in lista. la frase finale del podcast di Di Feo è il punto si cui riflettere, io credo: l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto orgoglioso, molto confidente delle sue capacità e tende a ritenersi superiore all'uomo (mi piacerebbe sapere qual è la fonte su cui Di Feo si basa, non nel senso che dubiti dell'esistenza, ma che sarebbe interessante conoscerla, proprio) diciamo che l'umano volontariamente si asservisce alla macchina e con ciò crede di giustificarsi? perché quella esposta è una forma estrema di personalizzazione dei sistemi di IA: non solo 'ragionano' ma pure 'formano sentimenti'. come ha scritto Daniela, personalizzare i sistemi di IA deumanizza le persone. Maurizio ________________________________ s'il n'y a même plus l'humour pour nous alléger comment lutter prohom, comment lutter ________________________________ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Seguo e sviluppo il suggerimento contenuto nelle ultime due righe di Guido: "Mi sembra evidente che l'acronimo AI sia stato utilizzato per fare 'moral washing' dei crimini umanitari e per sviare l'attenzione dell'opinione pubblica, che infatti, davanti ai bambini massacrati, sta qui a parlare di AI." L’inchiesta sul funzionamento di Lavender ha mostrato che descrivere l’uso della AI in guerra come operazione chirurgica per colpire il nemico senza produrre danni collaterali è falsa. I danni collaterali vengono previsti in decine, o addirittura centinaia di vittime civili, in relazione al rango dell’obiettivo. Ma c’è un’altra, ulteriore considerazione da fare. Nel caso della guerra di Gaza noi abbiamo la possibilità (e la sventura) di assistere a un caso reale. E osservandolo è difficile non considerare che quello che è successo a Gaza è nei fatti indipendente dall’uso di Lavender o di Gospel. Quando vengono sganciate bombe potentissime sopra un piccolo territorio densamente abitato, che può essere paragonato a un formicaio (e tale sembra quando si osservano i movimenti dei puntini neri che rappresentano gli abitanti di Gaza, ripresi dai sistemi di videosorveglianza utilizzati dai droni) è evidente che si tratta di un massacro indiscriminato. Rispetto a questo massacro è il ‘racconto’ dell’intelligenza artificiale che viene usato come giustificazione di un metodo molto tradizionale di fare la guerra, analogo a quello che abbiamo conosciuto nella seconda guerra mondiale con il culmine di Hiroshima e Nagasaki. E’ quindi la "narrazione dell’intelligenza artificiale" ad essere usata come strumento di guerra. Che contribuisce a svelare la retorica positiva della narrazione della AI anche quando viene proposta in ambito civile. Il giorno sab 18 gen 2025 alle ore 19:20 Alfredo Bregni <abregni@iperv.it> ha scritto:
*STANDING OVATION !!*
----- Original Message ----- *From:* Guido Vetere <vetere.guido@gmail.com> *To:* Alessandro Brolpito <abrolpito@gmail.com> *Cc:* nexa@server-nexa.polito.it *Sent:* Saturday, January 18, 2025 6:59 PM *Subject:* Re: [nexa] Il ruolo dell'IA nei conflitti
Se gli israeliani hanno bombardato qualcuno perché aveva scritto 'batik', la colpa non è dell'AI ma di Kleene che ha teorizzato le regular expression negli anni '50 e Unix che le le ha rese disponibili a tutti negli anni '60 con il 'grep'. Mi sembra evidente che l'acronimo AI sia stato utilizzato per fare 'moral washing' dei crimini umanitari e per sviare l'attenzione dell'opinione pubblica, che infatti, davanti ai bambini massacrati, sta qui a parlare di AI. G.
On Sat, 18 Jan 2025 at 17:47, Alessandro Brolpito <abrolpito@gmail.com> wrote:
Ciao Daniela,
On Sat, 18 Jan 2025 at 16:33, Daniela Tafani <daniela.tafani@unipi.it> wrote:
Grazie della segnalazione e della trascrizione.
Si qualificano più volte questi sistemi come "sofisticati". Mi pare che l'elemento caratteristico sia, al contrario, la grossolanità dei sistemi statistici adottati per l'eliminazione di persone.
C'è un'integrazione totale dei sistemi di sorveglianza e profilazione a fini commerciali con quelli a finalità militare: gli stessi sistemi che sono così sofisticati da suggerirmi di acquistare una tavoletta del wc o un casco da moto quando ne ho appena acquistato uno sono utilizzati per identificare un essere umano da uccidere sulla base della sua appartenenza a un gruppo Whatsapp e da localizzarlo in eventuale compagnia di qualche centinaio di altre persone.
Esempio eclatante: "...la parola batik, che vuol dire melone in arabo, veniva utilizzata in codice spesso per indicare le bombe, ma all'interno della popolazione di Gaza era anche una parola di uso comune quando si tratta di mangiare, consumare, comprare dei meloni che sono molto diffusi nella Striscia, sono quasi uno dei simboli..."
Ma, a mio avviso, la causa ancora più grave è stata la deregulation 'disumana', in tutti i sensi, dei processi decisionali: "... Questa debolezza linguistica, che prima veniva corretta con l'uso di esperti in carne e ossa, ha fatto sì che tanti bersagli siano stati scelti a caso, così come poi è stata pesantissima la decisione presa nelle prime ore dopo l'attacco di Hamas di cambiare le regole sulla valutazione del rischio per i civili."
Siamo lontani anni luce dagli usi della IA ipotizzati da Juan Carlos The computerization of the world and international cooperation - Nexa Center for Internet & Society <https://nexa.polito.it/the-computerization-of-the-world-and-international-co...>
Grazie Maurizio per la trascrizione Cordiali saluti, Alessandro
________________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di maurizio lana <maurizio.lana@uniupo.it> Inviato: sabato 18 gennaio 2025 14:03 A: nexa@server-nexa.polito.it Oggetto: Re: [nexa] Il ruolo dell'IA nei conflitti
Il 18/01/25 10:40, Alessandro Brolpito ha scritto: Un breve video reportage focalizzato sul conflitto tra Israele e Hamas. La tesi é che dietro il 7 ottobre e il disastroso bilancio di morti a Gaza c'è un unico grande respisabile: la decisione (politica) di affidarsi alla IA per, prima, la valutazione del rischio Hamas e, successivamente, per definire i targets e le morti di civili tollerabili, come effetto collaterale dei bombardamenti.
https://www.repubblica.it/rubriche/metropolis/2025/01/17/video/gaza_paradoss... Chi è responsabile da un punto di vista giuridico di questi morti? Che sia almeno tregua a tutto questo, da domani. testo del podcast citato, estratto con Macwhisper: Quella di Gaza è la prima guerra in cui a decidere chi doveva essere ucciso ad arbitrare vita e morte sono state le macchine. Queste scelte sono state affidate per la prima volta pressoché integralmente a dei sofisticati sistemi di intelligenza artificiale, tra l'altro animati dal machine learning, cioè dalla capacità di apprendimento. Le stesse macchine, gli stessi software, riuscivano a migliorare le loro capacità. Alla fine a ordinare il bombardamento c'era sempre un essere umano, ma tutto il processo decisionale, quello che i tecnici chiamano targeting, che porta a scegliere un bersaglio, che porta a scegliere la persona da uccidere, che porta a valutare qual è il rischio di coinvolgere civili innocenti in quell'attacco, è stato affidato a dei software. Noi non sappiamo quante delle 46.000 persone morte finora a Gaza e oltre 100.000 ferite, tra cui sicuramente una stragrande maggioranza di civili e tantissime donne e bambini che nulla avevano a che vedere con Hamas, sono state uccise o colpite per effetto di questo selezionamento fatto dall'intelligenza artificiale. Ma c'è un dato, uno dei tanti dati raccapriccianti che emergono in una serie di inchieste realizzate dal New York Times, dal Washington Post, da giornali indipendenti israeliani. Nel primo mese della campagna di bombardamenti decisa da Israele risposta all'incursione di Hamas del 7 ottobre che ha provocato 1200 vittime e il rapimento di 250 cittadini israeliani, soltanto nel primo mese 12.000 dei bersagli bombardati sono stati selezionati dall'intelligenza artificiale. Questo è un grande cambiamento nella cultura della guerra e in uno degli aspetti che proprio Israele, paese che lotta per la sua sovravvivenza, aveva particolarmente curato, e cioè come si arriva a scegliere chi va colpito e come si arriva a calcolare il rischio di coinvolgere civili nell'operazione. Israele aveva sempre mantenuto il controllo di questo processo nelle mani di analisti dell'intelligence di persone e in particolar modo aveva favorito una forma di cultura dell'allerta in cui anche il livello più basso di questa catena gerarchica, anche il sotto ufficiale, se aveva dei dubbi sull'attacco che stava per essere commesso, poteva prendere e rivolgersi direttamente al comandante in capo. Non solo, perché comunque Israele è una democrazia, è uno stato di diritto, nel processo per selezionare i bersagli e per creare questa sorta di archivio in cui c'erano tutti gli obiettivi che si potevano colpire in caso di conflitto con Hezbollah o in caso di conflitto con Hamas, alla fine del processo c'era sempre la figura di un avvocato militare che doveva valutare se l'operazione pianificata era o meno compatibile con le leggi. In 7 ottobre il fatto che Israele si sentisse minacciato nella sua stessa esistenza dall'incursione di Hamas ha spinto invece ad eliminare tutte queste regole. C'è un qualcosa di paradossale nella fiducia accordata a questi sistemi di intelligenza artificiale, di machine learning, di big data, perché proprio il fatto di aver affidato la sorveglianza a queste macchine, affidato la gestione dell'intelligenza preventiva a questi sistemi elettronici invece che non agli agenti sul campo, è stato uno degli elementi che ha permesso ad Hamas di colpire totalmente di sorpresa le persone. Si è sentito dire tante volte che è stata l'assenza di la vecchia "Humint", l'intelligenza fatta dalle persone per favorire lo sviluppo di tutti questi sistemi informatici ed elettronici che in qualche modo ha lasciato indifeso Israele. Eppure, in maniera paradossale, la risposta al 7 ottobre viene gestita da queste macchine. C'è un'enorme raccolta di informazioni che viene fatta con i droni, con i satelliti, con le intercettazioni di tutte le comunicazioni telefoniche, delle comunicazioni internet, delle chat, con l'uso di spugne di dati sofisticatissime quali gli aerei F-35 che noi chiamiamo i caccia invisibili ma la cui vera natura è quella di essere gli straordinari raccoglitori di informazioni. Addirittura, per capirci, si usava il confronto tra foto satellitari scattate in periodi diversi per capire se il terreno era stato mosso e quindi poteva nascondere dei razzi che venivano sepolti prima dell'azione di Hamas. O è stato insegnato alle macchine, al loro meccanismo di machine learning, come riconoscere un certo tipo, un determinato tipo di tessuto che veniva più frequentemente utilizzato da Damas per coprire i missili messi nel terreno in modo tale che le macchine, questi sistemi informatici di analisi, potessero trovare questo tessuto all'interno delle foto satellitari scattate in continuazione sopra Gaza. Tutte queste informazioni poi venivano messe in una grande struttura di bidata chiamata The Pool, la piscina, e all'interno di questa struttura operavano due software, entrambi sviluppati dall'unità 8200 che è il reparto dell'esercito israeliano specializzato nell'intelligence elettronica e nella designazione dei bersagli e che ha avuto un ruolo fondamentale nella gestione di queste operazioni. All'interno di The Pool agivano due sistemi, uno chiamato The Gospel, il Vangelo, che si occupava di andare a scegliere gli obiettivi, quindi era soprattutto focalizzato su quelle che potevano essere i nasconditi di armi, i tunnel, tutto ciò che rappresentava le infrastrutture di Damas. L'altro invece, Lavender, Lavanda, nessuno sa perché sia stato scelto questo nome, si occupava di individuare le persone che erano presunti miliziani, presunti combattenti di Damas. Entrambi i sistemi avevano grandi limiti, limiti alcuni nel modo in cui venivano elaborate le informazioni, ad esempio la parola batik, che vuol dire melone in arabo, veniva utilizzata in codice spesso per indicare le bombe, ma all'interno della popolazione di Gaza era anche una parola di uso comune quando si tratta di mangiare, consumare, comprare dei meloni che sono molto diffusi nella Striscia, sono quasi uno dei simboli. Il sistema, pur sofisticato, non era così intelligente da riuscire a distinguere quando veniva usato per parlare di meloni o quando veniva usato invece per discutere di ordini. Questa debolezza linguistica, che prima veniva corretta con l'uso di esperti in carne e ossa, ha fatto sì che tanti bersagli siano stati scelti a caso, così come poi è stata pesantissima la decisione presa nelle prime ore dopo l'attacco di Hamas di cambiare le regole sulla valutazione del rischio per i civili. È stato possibile scatenare attacchi anche quando mettevano a rischio 20 civili. Questa è una cosa molto forte perché prima del 7 ottobre Israele tollerava solo in casi straordinari la possibilità che venisse messa a rischio la vita di 5 civili e in casi ancora più eccezionali che venisse messa a rischio la vita di 10 civili. Invece poter uccidere 20 persone innocenti pur di colpire un uomo di Hamas o un uomo della Jihad Islamica è diventata la regola dopo il 7 ottobre e lo è rimasta per le prime 5 settimane di guerra. Ma in questa fase ci sono stati, secondo il censimento della ONG britannica Airwards, 136 attacchi in cui sono morti più di 50 civili. Questo anche a causa di un altro dei difetti di valutazione di queste macchine a cui è stata affidata la scelta di vita o di morte. Queste macchine per valutare la presenza di civili stimavano il numero di cellulari attivi nella zona del bersaglio e lo comparavano con quello precedente alla guerra. Da ciò disumevano quanto era popolata quella zona, quante persone c'erano in quella zona, ignorando il fatto che il funzionamento dei cellulari a causa dell'assenza di corrente elettrica, a causa delle condizioni drammatiche, spesso era ridotto al minimo. Quindi c'erano tante persone che rispetto a prima del 7 ottobre non usavano, non potevano usare il cellulare. Questo ha portato a valutare un numero di civili presenti sul luogo di bombardamento di [Gronlund] in febbraio e ha contribuito a realizzare quella terribile strage che noi vediamo. Ecco, in tutte le operazioni su Gaza l'intelligenza artificiale, i big data, il machine learning hanno fornito le indicazioni, hanno selezionato bersagli spesso sbagliati e hanno sottovalutato il numero di vittime civili. Mentre invece in Ucraina noi sappiamo che già oggi entrambi gli eserciti stanno utilizzando intelligenza artificiale e big data per tutta la fase del combattimento, incluso quella di stabilire chi colpire. Le macchine decidono chi colpire e le colpiscono automaticamente. E quello che viene indicato proprio dagli esperti delle forze armate israeliane che hanno contribuito a generare questi enormi sistemi di algoritmi è che l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto orgoglioso, molto confidente delle sue capacità e tende a ritenersi superiore all'uomo. Sono le premesse di un futuro che è già presente e che si annuncia terribile.
alcune delle inchieste citate sono: Abraham, Yuval. «‘A mass assassination factory’: Inside Israel’s calculated bombing of Gaza». +972 Magazine, 30 novembre 2023. https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-... . ———. «‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza». +972 Magazine, 3 aprile 2024. https://www.972mag.com/lavender-ai-israeli-army-gaza/. McKernan, Bethan, e Harry Davies. «‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets». The Guardian, 3 aprile 2024, sez. World news. https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-... .
questo il manuale israeliano prodotto dall'unità 8200: Y.S., Brigadier General. The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World. Independently Published, 2021. Davies, Harry, e Bethan McKernan. «Top Israeli spy chief exposes his true identity in online security lapse». The Guardian, 5 aprile 2024, sez. World news. https://www.theguardian.com/world/2024/apr/05/top-israeli-spy-chief-exposes-... .
in parte ne avevamo già parlato qui in lista. la frase finale del podcast di Di Feo è il punto si cui riflettere, io credo: l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto orgoglioso, molto confidente delle sue capacità e tende a ritenersi superiore all'uomo (mi piacerebbe sapere qual è la fonte su cui Di Feo si basa, non nel senso che dubiti dell'esistenza, ma che sarebbe interessante conoscerla, proprio) diciamo che l'umano volontariamente si asservisce alla macchina e con ciò crede di giustificarsi? perché quella esposta è una forma estrema di personalizzazione dei sistemi di IA: non solo 'ragionano' ma pure 'formano sentimenti'. come ha scritto Daniela, personalizzare i sistemi di IA deumanizza le persone. Maurizio
________________________________
s'il n'y a même plus l'humour pour nous alléger comment lutter prohom, comment lutter
________________________________ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Ma infatti Giulio, la favola dell'Artificial Intelligence è sempre uno specchietto per le allodole, sia in ambito civile che in ambito penale. Serve sempre per introdurre uno fantoccio dietro cui i responsabili di crimini, delitti, illeciti o persino genocidi si possano nascondere, sottraendosi alla giustizia umana, sia essa somministrata da giudici o meno. D'altro canto, Guido si preoccupa di ricondurre le responsabilità tecnologiche di questo genocidio a "Kleene che ha teorizzato le regular expression negli anni '50 e Unix che le le ha rese disponibili a tutti negli anni '60 con il 'grep'", pur di sorvolare sui ben più recenti contributi al genocidio forniti da aziende come Google, IBM, Microsoft e diversi altri amichetti. "Google is working directly with the Israeli Ministry of Defense, despite the ongoing genocide. The company also allows Israeli forces to use its Google Photos facial recognition service to scan the faces of Palestinians across Gaza for its dystopian “hit list”." "IBM, which was also the major supplier of computers for the South African apartheid regime’s national population registry and the upgraded passport system used to sort people by race and enforce segregation." "Microsoft for its part has supplied cloud computing space for the Israeli army’s “Almunasseq” app used for issuing permits to Palestinians in the occupied territories. " <https://www.aljazeera.com/opinions/2024/5/12/how-us-big-tech-supports-israel...> Al di là del fatto che lo strawman di Guido ignori completamente il recente dibattito su questa lista riguardo la neutralità politica della tecnologia, mescolando teoria informatica e software specifici che la implementano, nessuno ha mai negato le responsabilità di chi utilizza una tecnologia concreta per scopi criminali. Un genocidio non ha mai un singolo responsabile. Senza il supporto di IBM il genocidio degli ebrei sotto Hitler avrebbe avuto tempi e costi molto maggiori. Nello stesso modo, le BigTech USA hanno supportato il genocidio dei palestinesi e ne sono corresponsabili. Oltre a tutto il resto, i fatturati di queste aziende, i dividendi dei loro azionisti e persino gli stipendi dei loro dipendenti sono spochi del sangue di migliaia di innocenti. Esattamente come lo sono quelli di Leonardo e del Governo italiano. <https://www.ilfattoquotidiano.it/2025/01/17/armi-italiane-in-mano-ai-coloni-...> Queste responsabilità, questo concorso in genocidio, non riduce in nessun modo la responsabilità di Israele. Così come non la riduce il supporto degli USA. Aiuta al contrario a delineare le responsabilità in queste morti, così che, laddove non arriverà la giustizia internazionale, possano arrivare almeno i sopravvissuti. Che non credo si faranno abbindolare facilmente dalla favola "AI". ;-) Giacomo Il 18 Gennaio 2025 18:34:41 UTC, de petra giulio <giulio.depetra@gmail.com> ha scritto:
Seguo e sviluppo il suggerimento contenuto nelle ultime due righe di Guido:
"Mi sembra evidente che l'acronimo AI sia stato utilizzato per fare 'moral washing' dei crimini umanitari e per sviare l'attenzione dell'opinione pubblica, che infatti, davanti ai bambini massacrati, sta qui a parlare di AI."
L’inchiesta sul funzionamento di Lavender ha mostrato che descrivere l’uso della AI in guerra come operazione chirurgica per colpire il nemico senza produrre danni collaterali è falsa. I danni collaterali vengono previsti in decine, o addirittura centinaia di vittime civili, in relazione al rango dell’obiettivo. Ma c’è un’altra, ulteriore considerazione da fare. Nel caso della guerra di Gaza noi abbiamo la possibilità (e la sventura) di assistere a un caso reale. E osservandolo è difficile non considerare che quello che è successo a Gaza è nei fatti indipendente dall’uso di Lavender o di Gospel. Quando vengono sganciate bombe potentissime sopra un piccolo territorio densamente abitato, che può essere paragonato a un formicaio (e tale sembra quando si osservano i movimenti dei puntini neri che rappresentano gli abitanti di Gaza, ripresi dai sistemi di videosorveglianza utilizzati dai droni) è evidente che si tratta di un massacro indiscriminato. Rispetto a questo massacro è il ‘racconto’ dell’intelligenza artificiale che viene usato come giustificazione di un metodo molto tradizionale di fare la guerra, analogo a quello che abbiamo conosciuto nella seconda guerra mondiale con il culmine di Hiroshima e Nagasaki. E’ quindi la "narrazione dell’intelligenza artificiale" ad essere usata come strumento di guerra. Che contribuisce a svelare la retorica positiva della narrazione della AI anche quando viene proposta in ambito civile.
Il giorno sab 18 gen 2025 alle ore 19:20 Alfredo Bregni <abregni@iperv.it> ha scritto:
*STANDING OVATION !!*
----- Original Message ----- *From:* Guido Vetere <vetere.guido@gmail.com> *To:* Alessandro Brolpito <abrolpito@gmail.com> *Cc:* nexa@server-nexa.polito.it *Sent:* Saturday, January 18, 2025 6:59 PM *Subject:* Re: [nexa] Il ruolo dell'IA nei conflitti
Se gli israeliani hanno bombardato qualcuno perché aveva scritto 'batik', la colpa non è dell'AI ma di Kleene che ha teorizzato le regular expression negli anni '50 e Unix che le le ha rese disponibili a tutti negli anni '60 con il 'grep'. Mi sembra evidente che l'acronimo AI sia stato utilizzato per fare 'moral washing' dei crimini umanitari e per sviare l'attenzione dell'opinione pubblica, che infatti, davanti ai bambini massacrati, sta qui a parlare di AI. G.
On Sat, 18 Jan 2025 at 17:47, Alessandro Brolpito <abrolpito@gmail.com> wrote:
Ciao Daniela,
On Sat, 18 Jan 2025 at 16:33, Daniela Tafani <daniela.tafani@unipi.it> wrote:
Grazie della segnalazione e della trascrizione.
Si qualificano più volte questi sistemi come "sofisticati". Mi pare che l'elemento caratteristico sia, al contrario, la grossolanità dei sistemi statistici adottati per l'eliminazione di persone.
C'è un'integrazione totale dei sistemi di sorveglianza e profilazione a fini commerciali con quelli a finalità militare: gli stessi sistemi che sono così sofisticati da suggerirmi di acquistare una tavoletta del wc o un casco da moto quando ne ho appena acquistato uno sono utilizzati per identificare un essere umano da uccidere sulla base della sua appartenenza a un gruppo Whatsapp e da localizzarlo in eventuale compagnia di qualche centinaio di altre persone.
Esempio eclatante: "...la parola batik, che vuol dire melone in arabo, veniva utilizzata in codice spesso per indicare le bombe, ma all'interno della popolazione di Gaza era anche una parola di uso comune quando si tratta di mangiare, consumare, comprare dei meloni che sono molto diffusi nella Striscia, sono quasi uno dei simboli..."
Ma, a mio avviso, la causa ancora più grave è stata la deregulation 'disumana', in tutti i sensi, dei processi decisionali: "... Questa debolezza linguistica, che prima veniva corretta con l'uso di esperti in carne e ossa, ha fatto sì che tanti bersagli siano stati scelti a caso, così come poi è stata pesantissima la decisione presa nelle prime ore dopo l'attacco di Hamas di cambiare le regole sulla valutazione del rischio per i civili."
Siamo lontani anni luce dagli usi della IA ipotizzati da Juan Carlos The computerization of the world and international cooperation - Nexa Center for Internet & Society <https://nexa.polito.it/the-computerization-of-the-world-and-international-co...>
Grazie Maurizio per la trascrizione Cordiali saluti, Alessandro
________________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di maurizio lana <maurizio.lana@uniupo.it> Inviato: sabato 18 gennaio 2025 14:03 A: nexa@server-nexa.polito.it Oggetto: Re: [nexa] Il ruolo dell'IA nei conflitti
Il 18/01/25 10:40, Alessandro Brolpito ha scritto: Un breve video reportage focalizzato sul conflitto tra Israele e Hamas. La tesi é che dietro il 7 ottobre e il disastroso bilancio di morti a Gaza c'è un unico grande respisabile: la decisione (politica) di affidarsi alla IA per, prima, la valutazione del rischio Hamas e, successivamente, per definire i targets e le morti di civili tollerabili, come effetto collaterale dei bombardamenti.
https://www.repubblica.it/rubriche/metropolis/2025/01/17/video/gaza_paradoss... Chi è responsabile da un punto di vista giuridico di questi morti? Che sia almeno tregua a tutto questo, da domani. testo del podcast citato, estratto con Macwhisper: Quella di Gaza è la prima guerra in cui a decidere chi doveva essere ucciso ad arbitrare vita e morte sono state le macchine. Queste scelte sono state affidate per la prima volta pressoché integralmente a dei sofisticati sistemi di intelligenza artificiale, tra l'altro animati dal machine learning, cioè dalla capacità di apprendimento. Le stesse macchine, gli stessi software, riuscivano a migliorare le loro capacità. Alla fine a ordinare il bombardamento c'era sempre un essere umano, ma tutto il processo decisionale, quello che i tecnici chiamano targeting, che porta a scegliere un bersaglio, che porta a scegliere la persona da uccidere, che porta a valutare qual è il rischio di coinvolgere civili innocenti in quell'attacco, è stato affidato a dei software. Noi non sappiamo quante delle 46.000 persone morte finora a Gaza e oltre 100.000 ferite, tra cui sicuramente una stragrande maggioranza di civili e tantissime donne e bambini che nulla avevano a che vedere con Hamas, sono state uccise o colpite per effetto di questo selezionamento fatto dall'intelligenza artificiale. Ma c'è un dato, uno dei tanti dati raccapriccianti che emergono in una serie di inchieste realizzate dal New York Times, dal Washington Post, da giornali indipendenti israeliani. Nel primo mese della campagna di bombardamenti decisa da Israele risposta all'incursione di Hamas del 7 ottobre che ha provocato 1200 vittime e il rapimento di 250 cittadini israeliani, soltanto nel primo mese 12.000 dei bersagli bombardati sono stati selezionati dall'intelligenza artificiale. Questo è un grande cambiamento nella cultura della guerra e in uno degli aspetti che proprio Israele, paese che lotta per la sua sovravvivenza, aveva particolarmente curato, e cioè come si arriva a scegliere chi va colpito e come si arriva a calcolare il rischio di coinvolgere civili nell'operazione. Israele aveva sempre mantenuto il controllo di questo processo nelle mani di analisti dell'intelligence di persone e in particolar modo aveva favorito una forma di cultura dell'allerta in cui anche il livello più basso di questa catena gerarchica, anche il sotto ufficiale, se aveva dei dubbi sull'attacco che stava per essere commesso, poteva prendere e rivolgersi direttamente al comandante in capo. Non solo, perché comunque Israele è una democrazia, è uno stato di diritto, nel processo per selezionare i bersagli e per creare questa sorta di archivio in cui c'erano tutti gli obiettivi che si potevano colpire in caso di conflitto con Hezbollah o in caso di conflitto con Hamas, alla fine del processo c'era sempre la figura di un avvocato militare che doveva valutare se l'operazione pianificata era o meno compatibile con le leggi. In 7 ottobre il fatto che Israele si sentisse minacciato nella sua stessa esistenza dall'incursione di Hamas ha spinto invece ad eliminare tutte queste regole. C'è un qualcosa di paradossale nella fiducia accordata a questi sistemi di intelligenza artificiale, di machine learning, di big data, perché proprio il fatto di aver affidato la sorveglianza a queste macchine, affidato la gestione dell'intelligenza preventiva a questi sistemi elettronici invece che non agli agenti sul campo, è stato uno degli elementi che ha permesso ad Hamas di colpire totalmente di sorpresa le persone. Si è sentito dire tante volte che è stata l'assenza di la vecchia "Humint", l'intelligenza fatta dalle persone per favorire lo sviluppo di tutti questi sistemi informatici ed elettronici che in qualche modo ha lasciato indifeso Israele. Eppure, in maniera paradossale, la risposta al 7 ottobre viene gestita da queste macchine. C'è un'enorme raccolta di informazioni che viene fatta con i droni, con i satelliti, con le intercettazioni di tutte le comunicazioni telefoniche, delle comunicazioni internet, delle chat, con l'uso di spugne di dati sofisticatissime quali gli aerei F-35 che noi chiamiamo i caccia invisibili ma la cui vera natura è quella di essere gli straordinari raccoglitori di informazioni. Addirittura, per capirci, si usava il confronto tra foto satellitari scattate in periodi diversi per capire se il terreno era stato mosso e quindi poteva nascondere dei razzi che venivano sepolti prima dell'azione di Hamas. O è stato insegnato alle macchine, al loro meccanismo di machine learning, come riconoscere un certo tipo, un determinato tipo di tessuto che veniva più frequentemente utilizzato da Damas per coprire i missili messi nel terreno in modo tale che le macchine, questi sistemi informatici di analisi, potessero trovare questo tessuto all'interno delle foto satellitari scattate in continuazione sopra Gaza. Tutte queste informazioni poi venivano messe in una grande struttura di bidata chiamata The Pool, la piscina, e all'interno di questa struttura operavano due software, entrambi sviluppati dall'unità 8200 che è il reparto dell'esercito israeliano specializzato nell'intelligence elettronica e nella designazione dei bersagli e che ha avuto un ruolo fondamentale nella gestione di queste operazioni. All'interno di The Pool agivano due sistemi, uno chiamato The Gospel, il Vangelo, che si occupava di andare a scegliere gli obiettivi, quindi era soprattutto focalizzato su quelle che potevano essere i nasconditi di armi, i tunnel, tutto ciò che rappresentava le infrastrutture di Damas. L'altro invece, Lavender, Lavanda, nessuno sa perché sia stato scelto questo nome, si occupava di individuare le persone che erano presunti miliziani, presunti combattenti di Damas. Entrambi i sistemi avevano grandi limiti, limiti alcuni nel modo in cui venivano elaborate le informazioni, ad esempio la parola batik, che vuol dire melone in arabo, veniva utilizzata in codice spesso per indicare le bombe, ma all'interno della popolazione di Gaza era anche una parola di uso comune quando si tratta di mangiare, consumare, comprare dei meloni che sono molto diffusi nella Striscia, sono quasi uno dei simboli. Il sistema, pur sofisticato, non era così intelligente da riuscire a distinguere quando veniva usato per parlare di meloni o quando veniva usato invece per discutere di ordini. Questa debolezza linguistica, che prima veniva corretta con l'uso di esperti in carne e ossa, ha fatto sì che tanti bersagli siano stati scelti a caso, così come poi è stata pesantissima la decisione presa nelle prime ore dopo l'attacco di Hamas di cambiare le regole sulla valutazione del rischio per i civili. È stato possibile scatenare attacchi anche quando mettevano a rischio 20 civili. Questa è una cosa molto forte perché prima del 7 ottobre Israele tollerava solo in casi straordinari la possibilità che venisse messa a rischio la vita di 5 civili e in casi ancora più eccezionali che venisse messa a rischio la vita di 10 civili. Invece poter uccidere 20 persone innocenti pur di colpire un uomo di Hamas o un uomo della Jihad Islamica è diventata la regola dopo il 7 ottobre e lo è rimasta per le prime 5 settimane di guerra. Ma in questa fase ci sono stati, secondo il censimento della ONG britannica Airwards, 136 attacchi in cui sono morti più di 50 civili. Questo anche a causa di un altro dei difetti di valutazione di queste macchine a cui è stata affidata la scelta di vita o di morte. Queste macchine per valutare la presenza di civili stimavano il numero di cellulari attivi nella zona del bersaglio e lo comparavano con quello precedente alla guerra. Da ciò disumevano quanto era popolata quella zona, quante persone c'erano in quella zona, ignorando il fatto che il funzionamento dei cellulari a causa dell'assenza di corrente elettrica, a causa delle condizioni drammatiche, spesso era ridotto al minimo. Quindi c'erano tante persone che rispetto a prima del 7 ottobre non usavano, non potevano usare il cellulare. Questo ha portato a valutare un numero di civili presenti sul luogo di bombardamento di [Gronlund] in febbraio e ha contribuito a realizzare quella terribile strage che noi vediamo. Ecco, in tutte le operazioni su Gaza l'intelligenza artificiale, i big data, il machine learning hanno fornito le indicazioni, hanno selezionato bersagli spesso sbagliati e hanno sottovalutato il numero di vittime civili. Mentre invece in Ucraina noi sappiamo che già oggi entrambi gli eserciti stanno utilizzando intelligenza artificiale e big data per tutta la fase del combattimento, incluso quella di stabilire chi colpire. Le macchine decidono chi colpire e le colpiscono automaticamente. E quello che viene indicato proprio dagli esperti delle forze armate israeliane che hanno contribuito a generare questi enormi sistemi di algoritmi è che l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto orgoglioso, molto confidente delle sue capacità e tende a ritenersi superiore all'uomo. Sono le premesse di un futuro che è già presente e che si annuncia terribile.
alcune delle inchieste citate sono: Abraham, Yuval. «‘A mass assassination factory’: Inside Israel’s calculated bombing of Gaza». +972 Magazine, 30 novembre 2023. https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-... . ———. «‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza». +972 Magazine, 3 aprile 2024. https://www.972mag.com/lavender-ai-israeli-army-gaza/. McKernan, Bethan, e Harry Davies. «‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets». The Guardian, 3 aprile 2024, sez. World news. https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-... .
questo il manuale israeliano prodotto dall'unità 8200: Y.S., Brigadier General. The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World. Independently Published, 2021. Davies, Harry, e Bethan McKernan. «Top Israeli spy chief exposes his true identity in online security lapse». The Guardian, 5 aprile 2024, sez. World news. https://www.theguardian.com/world/2024/apr/05/top-israeli-spy-chief-exposes-... .
in parte ne avevamo già parlato qui in lista. la frase finale del podcast di Di Feo è il punto si cui riflettere, io credo: l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto orgoglioso, molto confidente delle sue capacità e tende a ritenersi superiore all'uomo (mi piacerebbe sapere qual è la fonte su cui Di Feo si basa, non nel senso che dubiti dell'esistenza, ma che sarebbe interessante conoscerla, proprio) diciamo che l'umano volontariamente si asservisce alla macchina e con ciò crede di giustificarsi? perché quella esposta è una forma estrema di personalizzazione dei sistemi di IA: non solo 'ragionano' ma pure 'formano sentimenti'. come ha scritto Daniela, personalizzare i sistemi di IA deumanizza le persone. Maurizio
________________________________
s'il n'y a même plus l'humour pour nous alléger comment lutter prohom, comment lutter
________________________________ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Giulio, tu scrivi:
[la falsità sull'AI in guerra] contribuisce a svelare la retorica positiva della narrazione della AI anche quando viene proposta in ambito civile.
Certa retorica positiva sull'AI, generalmente associata alla prospettiva dell'AGI, non ha bisogno delle stragi di Gaza per essere rifiutata. Allo stesso tempo, neanche il successo dell'AI generativa, ad es. nell'ambito del NLP, varrebbe a giustificarla. Si tratta in tutti i casi di generalizzazione indebita: da alcuni casi, negativi o positivi, si traggono conclusioni universali, negative o positive. Naturalmente, anche la retorica negativa della narrazione sull'AI è esposta alle stesse dinamiche (basta invertire il segno). Qui vale la distinzione tra critica e ideologia (Marx): la critica guarda dentro le cose in modo dialettico, mettendo in discussione la propria teoria e rifiutando (decostruendo, direbbe Derrida) gli argomenti motivati da interessi, pregiudizi, falsa coscienza o talvolta anche dal disagio psichico. L'ideologia è la tomba della dialettica, perché si sottrae a qualsiasi divenire del pensiero. Buona domenica, G. On Sat, 18 Jan 2025 at 19:34, de petra giulio <giulio.depetra@gmail.com> wrote:
Seguo e sviluppo il suggerimento contenuto nelle ultime due righe di Guido:
"Mi sembra evidente che l'acronimo AI sia stato utilizzato per fare 'moral washing' dei crimini umanitari e per sviare l'attenzione dell'opinione pubblica, che infatti, davanti ai bambini massacrati, sta qui a parlare di AI."
L’inchiesta sul funzionamento di Lavender ha mostrato che descrivere l’uso della AI in guerra come operazione chirurgica per colpire il nemico senza produrre danni collaterali è falsa. I danni collaterali vengono previsti in decine, o addirittura centinaia di vittime civili, in relazione al rango dell’obiettivo. Ma c’è un’altra, ulteriore considerazione da fare. Nel caso della guerra di Gaza noi abbiamo la possibilità (e la sventura) di assistere a un caso reale. E osservandolo è difficile non considerare che quello che è successo a Gaza è nei fatti indipendente dall’uso di Lavender o di Gospel. Quando vengono sganciate bombe potentissime sopra un piccolo territorio densamente abitato, che può essere paragonato a un formicaio (e tale sembra quando si osservano i movimenti dei puntini neri che rappresentano gli abitanti di Gaza, ripresi dai sistemi di videosorveglianza utilizzati dai droni) è evidente che si tratta di un massacro indiscriminato. Rispetto a questo massacro è il ‘racconto’ dell’intelligenza artificiale che viene usato come giustificazione di un metodo molto tradizionale di fare la guerra, analogo a quello che abbiamo conosciuto nella seconda guerra mondiale con il culmine di Hiroshima e Nagasaki. E’ quindi la "narrazione dell’intelligenza artificiale" ad essere usata come strumento di guerra. Che contribuisce a svelare la retorica positiva della narrazione della AI anche quando viene proposta in ambito civile.
Il giorno sab 18 gen 2025 alle ore 19:20 Alfredo Bregni <abregni@iperv.it> ha scritto:
*STANDING OVATION !!*
----- Original Message ----- *From:* Guido Vetere <vetere.guido@gmail.com> *To:* Alessandro Brolpito <abrolpito@gmail.com> *Cc:* nexa@server-nexa.polito.it *Sent:* Saturday, January 18, 2025 6:59 PM *Subject:* Re: [nexa] Il ruolo dell'IA nei conflitti
Se gli israeliani hanno bombardato qualcuno perché aveva scritto 'batik', la colpa non è dell'AI ma di Kleene che ha teorizzato le regular expression negli anni '50 e Unix che le le ha rese disponibili a tutti negli anni '60 con il 'grep'. Mi sembra evidente che l'acronimo AI sia stato utilizzato per fare 'moral washing' dei crimini umanitari e per sviare l'attenzione dell'opinione pubblica, che infatti, davanti ai bambini massacrati, sta qui a parlare di AI. G.
On Sat, 18 Jan 2025 at 17:47, Alessandro Brolpito <abrolpito@gmail.com> wrote:
Ciao Daniela,
On Sat, 18 Jan 2025 at 16:33, Daniela Tafani <daniela.tafani@unipi.it> wrote:
Grazie della segnalazione e della trascrizione.
Si qualificano più volte questi sistemi come "sofisticati". Mi pare che l'elemento caratteristico sia, al contrario, la grossolanità dei sistemi statistici adottati per l'eliminazione di persone.
C'è un'integrazione totale dei sistemi di sorveglianza e profilazione a fini commerciali con quelli a finalità militare: gli stessi sistemi che sono così sofisticati da suggerirmi di acquistare una tavoletta del wc o un casco da moto quando ne ho appena acquistato uno sono utilizzati per identificare un essere umano da uccidere sulla base della sua appartenenza a un gruppo Whatsapp e da localizzarlo in eventuale compagnia di qualche centinaio di altre persone.
Esempio eclatante: "...la parola batik, che vuol dire melone in arabo, veniva utilizzata in codice spesso per indicare le bombe, ma all'interno della popolazione di Gaza era anche una parola di uso comune quando si tratta di mangiare, consumare, comprare dei meloni che sono molto diffusi nella Striscia, sono quasi uno dei simboli..."
Ma, a mio avviso, la causa ancora più grave è stata la deregulation 'disumana', in tutti i sensi, dei processi decisionali: "... Questa debolezza linguistica, che prima veniva corretta con l'uso di esperti in carne e ossa, ha fatto sì che tanti bersagli siano stati scelti a caso, così come poi è stata pesantissima la decisione presa nelle prime ore dopo l'attacco di Hamas di cambiare le regole sulla valutazione del rischio per i civili."
Siamo lontani anni luce dagli usi della IA ipotizzati da Juan Carlos The computerization of the world and international cooperation - Nexa Center for Internet & Society <https://nexa.polito.it/the-computerization-of-the-world-and-international-co...>
Grazie Maurizio per la trascrizione Cordiali saluti, Alessandro
________________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di maurizio lana <maurizio.lana@uniupo.it> Inviato: sabato 18 gennaio 2025 14:03 A: nexa@server-nexa.polito.it Oggetto: Re: [nexa] Il ruolo dell'IA nei conflitti
Il 18/01/25 10:40, Alessandro Brolpito ha scritto: Un breve video reportage focalizzato sul conflitto tra Israele e Hamas. La tesi é che dietro il 7 ottobre e il disastroso bilancio di morti a Gaza c'è un unico grande respisabile: la decisione (politica) di affidarsi alla IA per, prima, la valutazione del rischio Hamas e, successivamente, per definire i targets e le morti di civili tollerabili, come effetto collaterale dei bombardamenti.
https://www.repubblica.it/rubriche/metropolis/2025/01/17/video/gaza_paradoss... Chi è responsabile da un punto di vista giuridico di questi morti? Che sia almeno tregua a tutto questo, da domani. testo del podcast citato, estratto con Macwhisper: Quella di Gaza è la prima guerra in cui a decidere chi doveva essere ucciso ad arbitrare vita e morte sono state le macchine. Queste scelte sono state affidate per la prima volta pressoché integralmente a dei sofisticati sistemi di intelligenza artificiale, tra l'altro animati dal machine learning, cioè dalla capacità di apprendimento. Le stesse macchine, gli stessi software, riuscivano a migliorare le loro capacità. Alla fine a ordinare il bombardamento c'era sempre un essere umano, ma tutto il processo decisionale, quello che i tecnici chiamano targeting, che porta a scegliere un bersaglio, che porta a scegliere la persona da uccidere, che porta a valutare qual è il rischio di coinvolgere civili innocenti in quell'attacco, è stato affidato a dei software. Noi non sappiamo quante delle 46.000 persone morte finora a Gaza e oltre 100.000 ferite, tra cui sicuramente una stragrande maggioranza di civili e tantissime donne e bambini che nulla avevano a che vedere con Hamas, sono state uccise o colpite per effetto di questo selezionamento fatto dall'intelligenza artificiale. Ma c'è un dato, uno dei tanti dati raccapriccianti che emergono in una serie di inchieste realizzate dal New York Times, dal Washington Post, da giornali indipendenti israeliani. Nel primo mese della campagna di bombardamenti decisa da Israele risposta all'incursione di Hamas del 7 ottobre che ha provocato 1200 vittime e il rapimento di 250 cittadini israeliani, soltanto nel primo mese 12.000 dei bersagli bombardati sono stati selezionati dall'intelligenza artificiale. Questo è un grande cambiamento nella cultura della guerra e in uno degli aspetti che proprio Israele, paese che lotta per la sua sovravvivenza, aveva particolarmente curato, e cioè come si arriva a scegliere chi va colpito e come si arriva a calcolare il rischio di coinvolgere civili nell'operazione. Israele aveva sempre mantenuto il controllo di questo processo nelle mani di analisti dell'intelligence di persone e in particolar modo aveva favorito una forma di cultura dell'allerta in cui anche il livello più basso di questa catena gerarchica, anche il sotto ufficiale, se aveva dei dubbi sull'attacco che stava per essere commesso, poteva prendere e rivolgersi direttamente al comandante in capo. Non solo, perché comunque Israele è una democrazia, è uno stato di diritto, nel processo per selezionare i bersagli e per creare questa sorta di archivio in cui c'erano tutti gli obiettivi che si potevano colpire in caso di conflitto con Hezbollah o in caso di conflitto con Hamas, alla fine del processo c'era sempre la figura di un avvocato militare che doveva valutare se l'operazione pianificata era o meno compatibile con le leggi. In 7 ottobre il fatto che Israele si sentisse minacciato nella sua stessa esistenza dall'incursione di Hamas ha spinto invece ad eliminare tutte queste regole. C'è un qualcosa di paradossale nella fiducia accordata a questi sistemi di intelligenza artificiale, di machine learning, di big data, perché proprio il fatto di aver affidato la sorveglianza a queste macchine, affidato la gestione dell'intelligenza preventiva a questi sistemi elettronici invece che non agli agenti sul campo, è stato uno degli elementi che ha permesso ad Hamas di colpire totalmente di sorpresa le persone. Si è sentito dire tante volte che è stata l'assenza di la vecchia "Humint", l'intelligenza fatta dalle persone per favorire lo sviluppo di tutti questi sistemi informatici ed elettronici che in qualche modo ha lasciato indifeso Israele. Eppure, in maniera paradossale, la risposta al 7 ottobre viene gestita da queste macchine. C'è un'enorme raccolta di informazioni che viene fatta con i droni, con i satelliti, con le intercettazioni di tutte le comunicazioni telefoniche, delle comunicazioni internet, delle chat, con l'uso di spugne di dati sofisticatissime quali gli aerei F-35 che noi chiamiamo i caccia invisibili ma la cui vera natura è quella di essere gli straordinari raccoglitori di informazioni. Addirittura, per capirci, si usava il confronto tra foto satellitari scattate in periodi diversi per capire se il terreno era stato mosso e quindi poteva nascondere dei razzi che venivano sepolti prima dell'azione di Hamas. O è stato insegnato alle macchine, al loro meccanismo di machine learning, come riconoscere un certo tipo, un determinato tipo di tessuto che veniva più frequentemente utilizzato da Damas per coprire i missili messi nel terreno in modo tale che le macchine, questi sistemi informatici di analisi, potessero trovare questo tessuto all'interno delle foto satellitari scattate in continuazione sopra Gaza. Tutte queste informazioni poi venivano messe in una grande struttura di bidata chiamata The Pool, la piscina, e all'interno di questa struttura operavano due software, entrambi sviluppati dall'unità 8200 che è il reparto dell'esercito israeliano specializzato nell'intelligence elettronica e nella designazione dei bersagli e che ha avuto un ruolo fondamentale nella gestione di queste operazioni. All'interno di The Pool agivano due sistemi, uno chiamato The Gospel, il Vangelo, che si occupava di andare a scegliere gli obiettivi, quindi era soprattutto focalizzato su quelle che potevano essere i nasconditi di armi, i tunnel, tutto ciò che rappresentava le infrastrutture di Damas. L'altro invece, Lavender, Lavanda, nessuno sa perché sia stato scelto questo nome, si occupava di individuare le persone che erano presunti miliziani, presunti combattenti di Damas. Entrambi i sistemi avevano grandi limiti, limiti alcuni nel modo in cui venivano elaborate le informazioni, ad esempio la parola batik, che vuol dire melone in arabo, veniva utilizzata in codice spesso per indicare le bombe, ma all'interno della popolazione di Gaza era anche una parola di uso comune quando si tratta di mangiare, consumare, comprare dei meloni che sono molto diffusi nella Striscia, sono quasi uno dei simboli. Il sistema, pur sofisticato, non era così intelligente da riuscire a distinguere quando veniva usato per parlare di meloni o quando veniva usato invece per discutere di ordini. Questa debolezza linguistica, che prima veniva corretta con l'uso di esperti in carne e ossa, ha fatto sì che tanti bersagli siano stati scelti a caso, così come poi è stata pesantissima la decisione presa nelle prime ore dopo l'attacco di Hamas di cambiare le regole sulla valutazione del rischio per i civili. È stato possibile scatenare attacchi anche quando mettevano a rischio 20 civili. Questa è una cosa molto forte perché prima del 7 ottobre Israele tollerava solo in casi straordinari la possibilità che venisse messa a rischio la vita di 5 civili e in casi ancora più eccezionali che venisse messa a rischio la vita di 10 civili. Invece poter uccidere 20 persone innocenti pur di colpire un uomo di Hamas o un uomo della Jihad Islamica è diventata la regola dopo il 7 ottobre e lo è rimasta per le prime 5 settimane di guerra. Ma in questa fase ci sono stati, secondo il censimento della ONG britannica Airwards, 136 attacchi in cui sono morti più di 50 civili. Questo anche a causa di un altro dei difetti di valutazione di queste macchine a cui è stata affidata la scelta di vita o di morte. Queste macchine per valutare la presenza di civili stimavano il numero di cellulari attivi nella zona del bersaglio e lo comparavano con quello precedente alla guerra. Da ciò disumevano quanto era popolata quella zona, quante persone c'erano in quella zona, ignorando il fatto che il funzionamento dei cellulari a causa dell'assenza di corrente elettrica, a causa delle condizioni drammatiche, spesso era ridotto al minimo. Quindi c'erano tante persone che rispetto a prima del 7 ottobre non usavano, non potevano usare il cellulare. Questo ha portato a valutare un numero di civili presenti sul luogo di bombardamento di [Gronlund] in febbraio e ha contribuito a realizzare quella terribile strage che noi vediamo. Ecco, in tutte le operazioni su Gaza l'intelligenza artificiale, i big data, il machine learning hanno fornito le indicazioni, hanno selezionato bersagli spesso sbagliati e hanno sottovalutato il numero di vittime civili. Mentre invece in Ucraina noi sappiamo che già oggi entrambi gli eserciti stanno utilizzando intelligenza artificiale e big data per tutta la fase del combattimento, incluso quella di stabilire chi colpire. Le macchine decidono chi colpire e le colpiscono automaticamente. E quello che viene indicato proprio dagli esperti delle forze armate israeliane che hanno contribuito a generare questi enormi sistemi di algoritmi è che l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto orgoglioso, molto confidente delle sue capacità e tende a ritenersi superiore all'uomo. Sono le premesse di un futuro che è già presente e che si annuncia terribile.
alcune delle inchieste citate sono: Abraham, Yuval. «‘A mass assassination factory’: Inside Israel’s calculated bombing of Gaza». +972 Magazine, 30 novembre 2023. https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-... . ———. «‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza». +972 Magazine, 3 aprile 2024. https://www.972mag.com/lavender-ai-israeli-army-gaza/. McKernan, Bethan, e Harry Davies. «‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets». The Guardian, 3 aprile 2024, sez. World news. https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-... .
questo il manuale israeliano prodotto dall'unità 8200: Y.S., Brigadier General. The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World. Independently Published, 2021. Davies, Harry, e Bethan McKernan. «Top Israeli spy chief exposes his true identity in online security lapse». The Guardian, 5 aprile 2024, sez. World news. https://www.theguardian.com/world/2024/apr/05/top-israeli-spy-chief-exposes-... .
in parte ne avevamo già parlato qui in lista. la frase finale del podcast di Di Feo è il punto si cui riflettere, io credo: l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto orgoglioso, molto confidente delle sue capacità e tende a ritenersi superiore all'uomo (mi piacerebbe sapere qual è la fonte su cui Di Feo si basa, non nel senso che dubiti dell'esistenza, ma che sarebbe interessante conoscerla, proprio) diciamo che l'umano volontariamente si asservisce alla macchina e con ciò crede di giustificarsi? perché quella esposta è una forma estrema di personalizzazione dei sistemi di IA: non solo 'ragionano' ma pure 'formano sentimenti'. come ha scritto Daniela, personalizzare i sistemi di IA deumanizza le persone. Maurizio
________________________________
s'il n'y a même plus l'humour pour nous alléger comment lutter prohom, comment lutter
________________________________ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
la critica guarda dentro le cose in modo dialettico, mettendo in discussione la propria teoria e rifiutando (decostruendo, direbbe Derrida) gli argomenti motivati da interessi, pregiudizi, falsa coscienza o talvolta anche dal disagio psichico.
Verissimo, solo che per guardare dentro le cose in modo dialettico occorrerebbe un mondo dell'informazione corretto e obiettivo. Cosa che oggi è, al contempo, facile e difficile da ottenere. Facile, perché, grazie alla rete, le fonti di informazioni sono tantissime e spesso gratuite. Difficile, perché ad "emergere" nel maremagnum delle notizie sono spesso notizie "pilotate". Saima Akhter, ex analista di dati presso Meta: "Instagram e Facebook sono il modo in cui il mondo comunica, ma è un'azienda americana e il governo americano influenza pesantemente ciò che determina essere un terrorista. Quindi, naturalmente, hai Hamas in quella lista e tutto ciò che è correlato a questo, anche cose come se hai un triangolo rosso sul tuo account, lo segnaleranno e potrebbe essere motivo per eliminare definitivamente il tuo account" [1] Si possono manipolare le informazioni solo con le "regular expression"? Certo. L'IA ci mette il turbo. A. [1] https://consortiumnews.com/it/2025/01/02/Chris-Hedges-denuncia-la-complicit%...
Insisto. La responsabilità di un'uccisione -- "legittima" di un nemico dichiarato (es. soldato o spia in guerra), "illegittima" di nemico presunto (es. capo politico di paese libero considerato scomodo, ...intendo il paese e/o la persona), o del tutto "arbitraria" (es. civile ucciso volutamente come "danno collaterale" previsto e accettato); ...poi ci sono altre mille varianti sul tema -- si divide in N componenti della catena di comando e di esecuzione, fra gente che sceglie, decide, utilizza strumenti, e macchine che finora eseguivano, ...e ora anche pensano. Se un sistema d'arma fa cilecca, e colpisce un obiettivo diverso da quello previsto, allora il produttore del sistema può essere chiamato in causa, in quanto diretto responsabile del danno. Ma in tutti gli altri casi, nei quali sai bene come opera uno strumento e lo lasci libero di decidere al posto tuo, la responsabilità è chiaramente di chi decide di permettere e chi permette questo. Se un guidatore di auto a guida autonoma fa avvenire un incidente, la responsabilità si divide fra l'utente e il produttore, in funzione delle garanzie e dei disclaimer che si trovano nel "contratto" fra venditore e cliente, ...inclusi eventualmente gli organi regolatori coinvolti. Di sicuro, finché l'auto fa quello che è stato previsto faccia, la responsabilità sta negli umani. E, se si mette una pistola in mano a un bambino (perché tale è la capacità di discernimento di un algoritmo), il responsabile rimane chi gliel'ha data. Di cosa stiamo parlando? Di come ragioniamo gli algoritmi, o di quanto sono imbecilli e colpevoli coloro che li usano? Perché a me, del giornalista sensazionalista che personifica gli algoritmi, scusate ma poco mi frega. L'incipit è chiaro: "unico grande responsabile è la decisione (politica) di affidarsi alla IA". Poi ci si perde e l'affermazione iniziale sparisce... ----- Original Message ----- From: maurizio lana To: nexa@server-nexa.polito.it Sent: Saturday, January 18, 2025 2:03 PM Subject: Re: [nexa] Il ruolo dell'IA nei conflitti Il 18/01/25 10:40, Alessandro Brolpito ha scritto: Un breve video reportage focalizzato sul conflitto tra Israele e Hamas. La tesi é che dietro il 7 ottobre e il disastroso bilancio di morti a Gaza c'è un unico grande respisabile: la decisione (politica) di affidarsi alla IA per, prima, la valutazione del rischio Hamas e, successivamente, per definire i targets e le morti di civili tollerabili, come effetto collaterale dei bombardamenti. https://www.repubblica.it/rubriche/metropolis/2025/01/17/video/gaza_paradoss... Chi è responsabile da un punto di vista giuridico di questi morti? Che sia almeno tregua a tutto questo, da domani. testo del podcast citato, estratto con Macwhisper: Quella di Gaza è la prima guerra in cui a decidere chi doveva essere ucciso ad arbitrare vita e morte sono state le macchine. Queste scelte sono state affidate per la prima volta pressoché integralmente a dei sofisticati sistemi di intelligenza artificiale, tra l'altro animati dal machine learning, cioè dalla capacità di apprendimento. Le stesse macchine, gli stessi software, riuscivano a migliorare le loro capacità. Alla fine a ordinare il bombardamento c'era sempre un essere umano, ma tutto il processo decisionale, quello che i tecnici chiamano targeting, che porta a scegliere un bersaglio, che porta a scegliere la persona da uccidere, che porta a valutare qual è il rischio di coinvolgere civili innocenti in quell'attacco, è stato affidato a dei software. Noi non sappiamo quante delle 46.000 persone morte finora a Gaza e oltre 100.000 ferite, tra cui sicuramente una stragrande maggioranza di civili e tantissime donne e bambini che nulla avevano a che vedere con Hamas, sono state uccise o colpite per effetto di questo selezionamento fatto dall'intelligenza artificiale. Ma c'è un dato, uno dei tanti dati raccapriccianti che emergono in una serie di inchieste realizzate dal New York Times, dal Washington Post, da giornali indipendenti israeliani. Nel primo mese della campagna di bombardamenti decisa da Israele risposta all'incursione di Hamas del 7 ottobre che ha provocato 1200 vittime e il rapimento di 250 cittadini israeliani, soltanto nel primo mese 12.000 dei bersagli bombardati sono stati selezionati dall'intelligenza artificiale. Questo è un grande cambiamento nella cultura della guerra e in uno degli aspetti che proprio Israele, paese che lotta per la sua sovravvivenza, aveva particolarmente curato, e cioè come si arriva a scegliere chi va colpito e come si arriva a calcolare il rischio di coinvolgere civili nell'operazione. Israele aveva sempre mantenuto il controllo di questo processo nelle mani di analisti dell'intelligence di persone e in particolar modo aveva favorito una forma di cultura dell'allerta in cui anche il livello più basso di questa catena gerarchica, anche il sotto ufficiale, se aveva dei dubbi sull'attacco che stava per essere commesso, poteva prendere e rivolgersi direttamente al comandante in capo. Non solo, perché comunque Israele è una democrazia, è uno stato di diritto, nel processo per selezionare i bersagli e per creare questa sorta di archivio in cui c'erano tutti gli obiettivi che si potevano colpire in caso di conflitto con Hezbollah o in caso di conflitto con Hamas, alla fine del processo c'era sempre la figura di un avvocato militare che doveva valutare se l'operazione pianificata era o meno compatibile con le leggi. In 7 ottobre il fatto che Israele si sentisse minacciato nella sua stessa esistenza dall'incursione di Hamas ha spinto invece ad eliminare tutte queste regole. C'è un qualcosa di paradossale nella fiducia accordata a questi sistemi di intelligenza artificiale, di machine learning, di big data, perché proprio il fatto di aver affidato la sorveglianza a queste macchine, affidato la gestione dell'intelligenza preventiva a questi sistemi elettronici invece che non agli agenti sul campo, è stato uno degli elementi che ha permesso ad Hamas di colpire totalmente di sorpresa le persone. Si è sentito dire tante volte che è stata l'assenza di la vecchia "Humint", l'intelligenza fatta dalle persone per favorire lo sviluppo di tutti questi sistemi informatici ed elettronici che in qualche modo ha lasciato indifeso Israele. Eppure, in maniera paradossale, la risposta al 7 ottobre viene gestita da queste macchine. C'è un'enorme raccolta di informazioni che viene fatta con i droni, con i satelliti, con le intercettazioni di tutte le comunicazioni telefoniche, delle comunicazioni internet, delle chat, con l'uso di spugne di dati sofisticatissime quali gli aerei F-35 che noi chiamiamo i caccia invisibili ma la cui vera natura è quella di essere gli straordinari raccoglitori di informazioni. Addirittura, per capirci, si usava il confronto tra foto satellitari scattate in periodi diversi per capire se il terreno era stato mosso e quindi poteva nascondere dei razzi che venivano sepolti prima dell'azione di Hamas. O è stato insegnato alle macchine, al loro meccanismo di machine learning, come riconoscere un certo tipo, un determinato tipo di tessuto che veniva più frequentemente utilizzato da Damas per coprire i missili messi nel terreno in modo tale che le macchine, questi sistemi informatici di analisi, potessero trovare questo tessuto all'interno delle foto satellitari scattate in continuazione sopra Gaza. Tutte queste informazioni poi venivano messe in una grande struttura di bidata chiamata The Pool, la piscina, e all'interno di questa struttura operavano due software, entrambi sviluppati dall'unità 8200 che è il reparto dell'esercito israeliano specializzato nell'intelligence elettronica e nella designazione dei bersagli e che ha avuto un ruolo fondamentale nella gestione di queste operazioni. All'interno di The Pool agivano due sistemi, uno chiamato The Gospel, il Vangelo, che si occupava di andare a scegliere gli obiettivi, quindi era soprattutto focalizzato su quelle che potevano essere i nasconditi di armi, i tunnel, tutto ciò che rappresentava le infrastrutture di Damas. L'altro invece, Lavender, Lavanda, nessuno sa perché sia stato scelto questo nome, si occupava di individuare le persone che erano presunti miliziani, presunti combattenti di Damas. Entrambi i sistemi avevano grandi limiti, limiti alcuni nel modo in cui venivano elaborate le informazioni, ad esempio la parola batik, che vuol dire melone in arabo, veniva utilizzata in codice spesso per indicare le bombe, ma all'interno della popolazione di Gaza era anche una parola di uso comune quando si tratta di mangiare, consumare, comprare dei meloni che sono molto diffusi nella Striscia, sono quasi uno dei simboli. Il sistema, pur sofisticato, non era così intelligente da riuscire a distinguere quando veniva usato per parlare di meloni o quando veniva usato invece per discutere di ordini. Questa debolezza linguistica, che prima veniva corretta con l'uso di esperti in carne e ossa, ha fatto sì che tanti bersagli siano stati scelti a caso, così come poi è stata pesantissima la decisione presa nelle prime ore dopo l'attacco di Hamas di cambiare le regole sulla valutazione del rischio per i civili. È stato possibile scatenare attacchi anche quando mettevano a rischio 20 civili. Questa è una cosa molto forte perché prima del 7 ottobre Israele tollerava solo in casi straordinari la possibilità che venisse messa a rischio la vita di 5 civili e in casi ancora più eccezionali che venisse messa a rischio la vita di 10 civili. Invece poter uccidere 20 persone innocenti pur di colpire un uomo di Hamas o un uomo della Jihad Islamica è diventata la regola dopo il 7 ottobre e lo è rimasta per le prime 5 settimane di guerra. Ma in questa fase ci sono stati, secondo il censimento della ONG britannica Airwards, 136 attacchi in cui sono morti più di 50 civili. Questo anche a causa di un altro dei difetti di valutazione di queste macchine a cui è stata affidata la scelta di vita o di morte. Queste macchine per valutare la presenza di civili stimavano il numero di cellulari attivi nella zona del bersaglio e lo comparavano con quello precedente alla guerra. Da ciò disumevano quanto era popolata quella zona, quante persone c'erano in quella zona, ignorando il fatto che il funzionamento dei cellulari a causa dell'assenza di corrente elettrica, a causa delle condizioni drammatiche, spesso era ridotto al minimo. Quindi c'erano tante persone che rispetto a prima del 7 ottobre non usavano, non potevano usare il cellulare. Questo ha portato a valutare un numero di civili presenti sul luogo di bombardamento di [Gronlund] in febbraio e ha contribuito a realizzare quella terribile strage che noi vediamo. Ecco, in tutte le operazioni su Gaza l'intelligenza artificiale, i big data, il machine learning hanno fornito le indicazioni, hanno selezionato bersagli spesso sbagliati e hanno sottovalutato il numero di vittime civili. Mentre invece in Ucraina noi sappiamo che già oggi entrambi gli eserciti stanno utilizzando intelligenza artificiale e big data per tutta la fase del combattimento, incluso quella di stabilire chi colpire. Le macchine decidono chi colpire e le colpiscono automaticamente. E quello che viene indicato proprio dagli esperti delle forze armate israeliane che hanno contribuito a generare questi enormi sistemi di algoritmi è che l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto orgoglioso, molto confidente delle sue capacità e tende a ritenersi superiore all'uomo. Sono le premesse di un futuro che è già presente e che si annuncia terribile. alcune delle inchieste citate sono: Abraham, Yuval. «‘A mass assassination factory’: Inside Israel’s calculated bombing of Gaza». +972 Magazine, 30 novembre 2023. https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-.... ———. «‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza». +972 Magazine, 3 aprile 2024. https://www.972mag.com/lavender-ai-israeli-army-gaza/. McKernan, Bethan, e Harry Davies. «‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets». The Guardian, 3 aprile 2024, sez. World news. https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-.... questo il manuale israeliano prodotto dall'unità 8200: Y.S., Brigadier General. The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World. Independently Published, 2021. Davies, Harry, e Bethan McKernan. «Top Israeli spy chief exposes his true identity in online security lapse». The Guardian, 5 aprile 2024, sez. World news. https://www.theguardian.com/world/2024/apr/05/top-israeli-spy-chief-exposes-.... in parte ne avevamo già parlato qui in lista. la frase finale del podcast di Di Feo è il punto si cui riflettere, io credo: l'algoritmo, l'intelligenza artificiale a un certo punto diventa molto orgoglioso, molto confidente delle sue capacità e tende a ritenersi superiore all'uomo (mi piacerebbe sapere qual è la fonte su cui Di Feo si basa, non nel senso che dubiti dell'esistenza, ma che sarebbe interessante conoscerla, proprio) diciamo che l'umano volontariamente si asservisce alla macchina e con ciò crede di giustificarsi? perché quella esposta è una forma estrema di personalizzazione dei sistemi di IA: non solo 'ragionano' ma pure 'formano sentimenti'. come ha scritto Daniela, personalizzare i sistemi di IA deumanizza le persone. Maurizio ------------------------------------------------------------------------------ s'il n'y a même plus l'humour pour nous alléger comment lutter prohom, comment lutter ------------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Ciao Alfredo, Il 18 Gennaio 2025 16:27:14 UTC, Alfredo Bregni <abregni@iperv.it> ha scritto:
Insisto.
[...] utilizza strumenti, e macchine che finora eseguivano, ...e ora anche pensano.
Ti consiglio di frequentare un buon corso universitario di informatica. Quando imparerai a programmare una "rete neurale artificiale" (più propriamante, vector mapping machine), arrossirai al ricordo dell'alienazione di cui eri vittima. E forse, comprenderai ciò che ti stanno dicendo. Giacomo
participants (12)
-
abregni -
Alessandro Brolpito -
Alfredo Bregni -
Antonio -
Daniela Tafani -
de petra giulio -
GC F -
Giacomo Tesio -
Guido Vetere -
J.C. DE MARTIN -
Marco Ciurcina -
maurizio lana