a me pare che in questo passaggio, che è il cuore della questione:

E allora succede questo: io uso un’app, invio una mail, partecipo a un meeting. I miei dati passano in server controllati, direttamente o indirettamente, da soggetti sottoposti a quelle leggi. E se per caso ho avuto contatti con un attivista palestinese, o con un operatore umanitario, o anche solo con un nodo debole della rete, i miei dati diventano un segnale. Un elemento dentro un grafo relazionale. Se io parlo con X, e X ha parlato con Y, e Y vive a Rafah, la casa di Y può essere colpita.

ci sia un difetto: "
Se io parlo con X, e X ha parlato con Y, e Y vive a Rafah, la casa di Y può essere colpita". perché non c'è un vero sillogismo. 
purtroppo "
la casa di Y può essere colpita" dipende solo dal fatto che "Y vive a Rafah", non dal fatto che Y ha parlato con X, che a sua volta ha parlato con K. nella logica aberrante che si sta analizzando e commentando, ipoteticamente dovrebbe essere che siccome Y vive a Rafah, allora si possono colpire le case di X e di K che con diversi gradi di separazione hanno comunque una connessione con Y.

la logica inconsistente di questo punto dell'argomentazione non diminuisce di nulla la gravità disperante di Lavender, Gospel, Red Wolf e della collaborazione dell'Europa con Israele (aziende israeliane che trattano dati di cittadini europei); ma la questione centrale è finire la collaborazione, che va ben oltre il fatto che 
aziende israeliane trattano dati di cittadini europei: che dire della collaborazione scientifica in molti ambiti che sono o possono essere dual use? dire che siamo tutti coinvolti perché i nostri dati passano da quei server mi pare un modo molto forzato di voler risvegliare le coscienze e dubito che possa portare risultati significativi. 

io che ...vivo dentro il paradigma bibliografico non posso non citare le inchieste di +972 che sono liberamente accessibili in rete:
Abraham, Yuval. «‘A mass assassination factory’: Inside Israel’s calculated bombing of Gaza». +972 Magazine, 30 novembre 2023. https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/.
———. «‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza». +972 Magazine, 3 aprile 2024. https://www.972mag.com/lavender-ai-israeli-army-gaza/.
Reiff, Ben. «Leaked documents expose deep ties between Israeli army and Microsoft». +972 Magazine, 23 gennaio 2025. https://www.972mag.com/microsoft-azure-openai-israeli-army-cloud/.

penso quindi che sia degna di nota questa azione proposta in ambito bibliotecario:
"Gaza, ExLibris e noi"
https://docs.google.com/forms/d/e/1FAIpQLScg279v0-zhGPZU7PtuxbqHSy6caF532UYuwt_cF5x3JOetwA/viewform

Siamo bibliotecari che ogni giorno, da anni, lavorano con i sistemi e i servizi prodotti da ExLibris, strumenti che ci hanno permesso di sviluppare soluzioni innovative e all’avanguardia per tutta la comunità universitaria.

ExLibris, parte oggi di Clarivate, è una ditta israeliana con sede nel parco tecnologico alle porte di Gerusalemme (Malha Technology Park) dove nel 1948 sorgeva il villaggio palestinese di Al-Maliha. Il 15 luglio 1948 l’IRGUN, gruppo armato clandestino sionista noto per le azioni di terrorismo, assalì il villaggio costringendo alla fuga oltre 2000 palestinesi. ... Per noi lavorare con i prodotti ExLibris diventa ogni giorno sempre più insopportabile, soprattutto sapendo che per i giovani studenti e ricercatori palestinesi non c’è oggi nessuna possibilità. Siamo consapevoli che non possiamo interrompere i contratti vigenti, ma allo stesso tempo sappiamo che è importante prendere una posizione chiara. ... Ai dirigenti di ExLibris, ai dipendenti di tutto il mondo della ditta, chiediamo parole chiare per fermare la guerra, il massacro di civili e la politica criminale dei loro governanti che non porterà a nessuna pace ma solo a nuove e sempre più terribili guerre.


Maurizio



Il 04/08/25 19:03, J.C. DE MARTIN ha scritto:
La bambina che è morta a Gaza anche per colpa nostra

Come l’Europa ha trasformato i nostri dati in armi

3 Agosto 2025

Michele Kettmaier

https://michelekettmaier.nova100.ilsole24ore.com/2025/08/03/la-bambina-che-e-morta-a-gaza-anche-per-colpa-nostra/

Non serve essere attivista. Non serve nemmeno sapere cosa succede 
esattamente a Gaza per essere parte del problema. Basta vivere in 
Europa, avere un telefono, cercare un indirizzo. Ma anche caricare un 
documento su un cloud o inviare un bonifico. Scrivere un commento di 
solidarietà sotto un post. Fare una call con qualcuno che lavora sul 
campo. Tutto normale, tutto innocuo.

E invece no. Perché quei dati, posizione, cronologia, immagini, 
contatti, non restano lì. Vengono raccolti, elaborati, assorbiti in 
silenzio da infrastrutture digitali che operano sotto giurisdizione 
israeliana. Lo permettono le leggi, lo garantisce un accordo con 
l’Unione Europea. È legale.

E poi succede che una bambina, migliaia di bambine e bambini, di sette 
anni, a Shujaiya, quartiere a est di Gaza City, venga uccisa da un drone 
una notte di giugno del 2025. Nessuna sirena, nessun avviso. 
Un’esplosione chirurgica, certo il bersaglio non era lei. Forse un uomo, 
qualcuno che aveva scambiato dei messaggi oppure una casa con troppo 
traffico dati.

L’intelligenza artificiale ha fatto il suo mestiere: ha calcolato, ha 
classificato, ha preso una decisione automatica. L’ha presa con dentro 
anche me non perché ho fatto qualcosa ma perché i miei dati, da qualche 
parte, ci sono arrivati. E questo basta.

È in quel momento che ho smesso di distinguere tra “dato personale” e 
“conseguenza politica”. Il sistema che ha autorizzato il colpo, 
Lavender, un algoritmo dell’IDF, non si chiede chi sei. Si chiede però 
quanto sei vicino a un sospetto, insomma quanto sei parte di un errore. 
E quando dico errore, parlo di esseri umani e di chi stava troppo 
vicino, troppo connesso, troppo dentro una rete.

Lavender, Gospel, Red Wolf. “Lavender” processa liste di SIM e decide 
sulla base di metriche automatizzate. “Gospel” è un motore di 
raccomandazione che suggerisce target da colpire. “Red Wolf” sorveglia i 
checkpoint e assegna punteggi biometrici. Sistemi automatici di 
targeting militare che si alimentano di dati, non di bombe, di dati. 
Anche europei e anche miei, anche nostri. Perché l’Unione Europea non ha 
mai sospeso la decisione di adeguatezza che consente il trasferimento di 
informazioni personali verso aziende israeliane. Nonostante i moniti di 
cinquanta organizzazioni digitali, nonostante le inchieste, nonostante Gaza.

Non è un bug del sistema. È il sistema. La decisione di adeguatezza è il 
cuore giuridico di questa ingegneria della complicità: autorizza 
legalmente aziende israeliane a trattare dati di cittadini europei come 
se fossero sotto garanzia GDPR. Ma non lo sono. Perché in Israele, dal 
2023, l’autorità garante della privacy è stata subordinata al potere 
esecutivo. Perché l’accesso dell’intelligence ai database civili non 
prevede controllo giurisdizionale. Nessun mandato, ne notifica, ne 
ricorso. L’Unione Europea sa tutto; ha ricevuto lettere firmate da 
decine di associazioni per i diritti digitali, ha letto i rapporti delle 
Nazioni Unite, le inchieste di +972, The Guardian, Haaretz. Ha avuto 
tempo, strumenti, giuristi, esperti e ha scelto comunque di non 
sospendere l’accordo di adeguatezza con Israele. Ha scelto di definire 
“sostanzialmente equivalente” un sistema legale che consente ai servizi 
segreti di accedere ai dati dei cittadini europei senza garanzie, senza 
limiti, senza controllo giurisdizionale. Ha ignorato volutamente le 
riforme che, nel 2023, hanno subordinato l’autorità israeliana per la 
privacy al potere esecutivo, violando i requisiti fondamentali del GDPR 
stesso. Ha accettato che il tracciamento, la profilazione e il targeting 
algoritmico potessero essere alimentati da dati europei, anche quando 
quegli stessi dati venivano impiegati in tecnologie di guerra. Non si 
tratta di distrazione, è una scelta politica, una complicità attiva, 
mascherata da neutralità normativa. La verità è che la UE ha bisogno di 
Israele come partner tecnologico e militare e per questo permette i suoi 
abusi. Per interesse, geopolitico.

E allora succede questo: io uso un’app, invio una mail, partecipo a un 
meeting. I miei dati passano in server controllati, direttamente o 
indirettamente, da soggetti sottoposti a quelle leggi. E se per caso ho 
avuto contatti con un attivista palestinese, o con un operatore 
umanitario, o anche solo con un nodo debole della rete, i miei dati 
diventano un segnale. Un elemento dentro un grafo relazionale. Se io 
parlo con X, e X ha parlato con Y, e Y vive a Rafah, la casa di Y può 
essere colpita.

Non serve dimostrare l’intenzione. Basta affermare che il bersaglio era 
plausibile. Che il contesto era coerente. E che i dati lo dicevano. 
Tutto questo non è un’ipotesi. È documentato. L’88% delle indagini 
militari israeliane su attacchi con vittime civili viene archiviato 
senza esito. La protezione dei dati europei finisce nel momento esatto 
in cui quei dati atterrano in una giurisdizione che opera secondo 
logiche di guerra.

E io, in tutto questo, ci sono. Non come autore ma come sorgente, come 
uno dei tanti nodi Come complice senza saperlo, non ho premuto un 
pulsante, ma non l’ho nemmeno disattivato. Posso giustificarmi? Forse 
no. Posso capirmi? Forse sì ma sono lacerato. Perché tutto questo non si 
regge sulla mia cattiva coscienza, ma sulla mia assenza di coscienza. 
Sul fatto che il sistema digitale in cui vivo è costruito per funzionare 
in background, per nascondere la soglia tra ciò che è mio e ciò che 
contribuisce ad altro. Per farmi credere che l’infrastruttura è neutra, 
e che la responsabilità è solo di chi uccide. Ma non è così. Perché ogni 
infrastruttura è una scelta. E ogni scelta, anche non fatta, ha un impatto.

Allora sì, posso ancora fare qualcosa. Non per cancellare ciò che è già 
accaduto, ma per non contribuire ancora. Posso smettere di considerare 
normale l’uso di strumenti che espongono i miei dati. Posso pretendere 
che l’Unione Europea revochi la decisione di adeguatezza con Israele. 
Posso denunciare, pubblicamente, ciò che è legalmente possibile ma 
umanamente inaccettabile. Posso disertare, dalle app, dalle deleghe 
cieche, dalla zona grigia della responsabilità digitale. Non si tratta 
di salvare Gaza con un gesto. Ma di uscire dal tracciato invisibile che 
passa anche da me. Di smettere di alimentare il modello. Se tutto oggi è 
codice, allora io voglio interrompere la linea. Anche se è troppo tardi. 
Non esistono dati neutri. Esistono solo dati che non sono ancora stati 
usati contro qualcuno. E questo tempo, temo, è già finito.




i ciottoli di yiannis ritsos
[non una citazione ma un invito ad una ricerca]

Maurizio Lana
Università del Piemonte Orientale
Dipartimento di Studi Umanistici
Piazza Roma 36 - 13100 Vercelli