Per cortestia, eviti tassativamente gli insulti.
Si può essere incisivi, anzi, radicali, senza mai dare dello scemo a
nessuno, men che meno a Michele Kettmaier.
Grazie.
juan carlos
On 04/08/25 19:24, abregni wrote:
Sorry, ma
continuare a parlar di coltelli, di come sono affilati, di quanto
possono fare un taglio ad altri mentre ci facciamo la barba noi,
INVECE di guardare bene in faccia chi il coltello lo brandisce (e
cominciare con lo sputargli in un occhio), ...alla fine mi pare
SCEMO.
Nel '68 -- nel bene e nel male (lo riconosco) -- si faceva come
dico io. Non si davano -- direttamente o di sponda -- colpe a chi
non le ha. Anche perché è un modo parecchio stupido di nascondere
il vero colpevole dalla luce; sapevatelo.
Il 2025-08-04 19:03 J.C. DE MARTIN ha scritto:
La bambina che è morta a Gaza anche per
colpa nostra
Come l’Europa ha trasformato i nostri dati in armi
3 Agosto 2025
Michele Kettmaier
https://michelekettmaier.nova100.ilsole24ore.com/2025/08/03/la-bambina-che-e-morta-a-gaza-anche-per-colpa-nostra/
Non serve essere attivista. Non serve nemmeno sapere cosa
succede esattamente a Gaza per essere parte del problema. Basta
vivere in Europa, avere un telefono, cercare un indirizzo. Ma
anche caricare un documento su un cloud o inviare un bonifico.
Scrivere un commento di solidarietà sotto un post. Fare una call
con qualcuno che lavora sul campo. Tutto normale, tutto innocuo.
E invece no. Perché quei dati, posizione, cronologia, immagini,
contatti, non restano lì. Vengono raccolti, elaborati, assorbiti
in silenzio da infrastrutture digitali che operano sotto
giurisdizione israeliana. Lo permettono le leggi, lo garantisce
un accordo con l’Unione Europea. È legale.
E poi succede che una bambina, migliaia di bambine e bambini, di
sette anni, a Shujaiya, quartiere a est di Gaza City, venga
uccisa da un drone una notte di giugno del 2025. Nessuna sirena,
nessun avviso. Un’esplosione chirurgica, certo il bersaglio non
era lei. Forse un uomo, qualcuno che aveva scambiato dei
messaggi oppure una casa con troppo traffico dati.
L’intelligenza artificiale ha fatto il suo mestiere: ha
calcolato, ha classificato, ha preso una decisione automatica.
L’ha presa con dentro anche me non perché ho fatto qualcosa ma
perché i miei dati, da qualche parte, ci sono arrivati. E questo
basta.
È in quel momento che ho smesso di distinguere tra “dato
personale” e “conseguenza politica”. Il sistema che ha
autorizzato il colpo, Lavender, un algoritmo dell’IDF, non si
chiede chi sei. Si chiede però quanto sei vicino a un sospetto,
insomma quanto sei parte di un errore. E quando dico errore,
parlo di esseri umani e di chi stava troppo vicino, troppo
connesso, troppo dentro una rete.
Lavender, Gospel, Red Wolf. “Lavender” processa liste di SIM e
decide sulla base di metriche automatizzate. “Gospel” è un
motore di raccomandazione che suggerisce target da colpire. “Red
Wolf” sorveglia i checkpoint e assegna punteggi biometrici.
Sistemi automatici di targeting militare che si alimentano di
dati, non di bombe, di dati. Anche europei e anche miei, anche
nostri. Perché l’Unione Europea non ha mai sospeso la decisione
di adeguatezza che consente il trasferimento di informazioni
personali verso aziende israeliane. Nonostante i moniti di
cinquanta organizzazioni digitali, nonostante le inchieste,
nonostante Gaza.
Non è un bug del sistema. È il sistema. La decisione di
adeguatezza è il cuore giuridico di questa ingegneria della
complicità: autorizza legalmente aziende israeliane a trattare
dati di cittadini europei come se fossero sotto garanzia GDPR.
Ma non lo sono. Perché in Israele, dal 2023, l’autorità garante
della privacy è stata subordinata al potere esecutivo. Perché
l’accesso dell’intelligence ai database civili non prevede
controllo giurisdizionale. Nessun mandato, ne notifica, ne
ricorso. L’Unione Europea sa tutto; ha ricevuto lettere firmate
da decine di associazioni per i diritti digitali, ha letto i
rapporti delle Nazioni Unite, le inchieste di +972, The
Guardian, Haaretz. Ha avuto tempo, strumenti, giuristi, esperti
e ha scelto comunque di non sospendere l’accordo di adeguatezza
con Israele. Ha scelto di definire “sostanzialmente equivalente”
un sistema legale che consente ai servizi segreti di accedere ai
dati dei cittadini europei senza garanzie, senza limiti, senza
controllo giurisdizionale. Ha ignorato volutamente le riforme
che, nel 2023, hanno subordinato l’autorità israeliana per la
privacy al potere esecutivo, violando i requisiti fondamentali
del GDPR stesso. Ha accettato che il tracciamento, la
profilazione e il targeting algoritmico potessero essere
alimentati da dati europei, anche quando quegli stessi dati
venivano impiegati in tecnologie di guerra. Non si tratta di
distrazione, è una scelta politica, una complicità attiva,
mascherata da neutralità normativa. La verità è che la UE ha
bisogno di Israele come partner tecnologico e militare e per
questo permette i suoi abusi. Per interesse, geopolitico.
E allora succede questo: io uso un’app, invio una mail,
partecipo a un meeting. I miei dati passano in server
controllati, direttamente o indirettamente, da soggetti
sottoposti a quelle leggi. E se per caso ho avuto contatti con
un attivista palestinese, o con un operatore umanitario, o anche
solo con un nodo debole della rete, i miei dati diventano un
segnale. Un elemento dentro un grafo relazionale. Se io parlo
con X, e X ha parlato con Y, e Y vive a Rafah, la casa di Y può
essere colpita.
Non serve dimostrare l’intenzione. Basta affermare che il
bersaglio era plausibile. Che il contesto era coerente. E che i
dati lo dicevano. Tutto questo non è un’ipotesi. È documentato.
L’88% delle indagini militari israeliane su attacchi con vittime
civili viene archiviato senza esito. La protezione dei dati
europei finisce nel momento esatto in cui quei dati atterrano in
una giurisdizione che opera secondo logiche di guerra.
E io, in tutto questo, ci sono. Non come autore ma come
sorgente, come uno dei tanti nodi Come complice senza saperlo,
non ho premuto un pulsante, ma non l’ho nemmeno disattivato.
Posso giustificarmi? Forse no. Posso capirmi? Forse sì ma sono
lacerato. Perché tutto questo non si regge sulla mia cattiva
coscienza, ma sulla mia assenza di coscienza. Sul fatto che il
sistema digitale in cui vivo è costruito per funzionare in
background, per nascondere la soglia tra ciò che è mio e ciò che
contribuisce ad altro. Per farmi credere che l’infrastruttura è
neutra, e che la responsabilità è solo di chi uccide. Ma non è
così. Perché ogni infrastruttura è una scelta. E ogni scelta,
anche non fatta, ha un impatto.
Allora sì, posso ancora fare qualcosa. Non per cancellare ciò
che è già accaduto, ma per non contribuire ancora. Posso
smettere di considerare normale l’uso di strumenti che espongono
i miei dati. Posso pretendere che l’Unione Europea revochi la
decisione di adeguatezza con Israele. Posso denunciare,
pubblicamente, ciò che è legalmente possibile ma umanamente
inaccettabile. Posso disertare, dalle app, dalle deleghe cieche,
dalla zona grigia della responsabilità digitale. Non si tratta
di salvare Gaza con un gesto. Ma di uscire dal tracciato
invisibile che passa anche da me. Di smettere di alimentare il
modello. Se tutto oggi è codice, allora io voglio interrompere
la linea. Anche se è troppo tardi. Non esistono dati neutri.
Esistono solo dati che non sono ancora stati usati contro
qualcuno. E questo tempo, temo, è già finito.