Chat control: sicurezza o sorveglianza? Anatomia critica di un regolamento europeo
Buongiorno, segnalo questo ottimo articolo apparso ieri su Diritto.it firmato dall'Avv. Luisa Di Giacomo. Cose già note e già dette, specialmente in questa lista. Le cose più importanti l'autrice le scrive nell'ultimo capitolo, è per questo che io parto a citarlo dalla _fine_. Anche io vi chiedo: quanto siete disposti a sacrificare, in termini di libertà e diritti, in nome della sicurezza... anzi no: della _promessa_ di protezione dal /male/?!? «Chat control: sicurezza o sorveglianza? Anatomia critica di un regolamento europeo» https://www.diritto.it/chat-control-sicurezza-sorveglianza-anatomia-regola/ --8<---------------cut here---------------start------------->8--- [...] [questa è la conclusione] Riflessione personale: la posta in gioco non è tecnica: è politica, culturale, esistenziale ──────────────────────────────────────────────────────────────────────────────────────────── Le discussioni su Chat Control non riguardano soltanto algoritmi, crittografia, interoperabilità o compliance normativa. Dietro il dibattito tecnico-giuridico si cela una questione molto più ampia: *che tipo di società vogliamo costruire*? A quale idea di cittadinanza digitale vogliamo aderire? E soprattutto: quanto siamo disposti a sacrificare, in termini di libertà e diritti, nel nome della sicurezza? Chi lavora da anni nella protezione dei dati sa bene che il rischio non è solo quello di un errore tecnico o di una norma sproporzionata. Il vero pericolo è la *normalizzazione del controllo*: l'abitudine a essere osservati, scansionati, valutati. È il lento scivolamento verso un paradigma in cui la privacy non è più il default, ma un privilegio da conquistarsi; in cui la trasparenza è richiesta solo al cittadino, mentre le decisioni automatizzate restano opache e inaccessibili. Proposte come il regolamento CSAR ci mettono davanti a un bivio culturale. Da una parte, la promessa rassicurante di un mondo più sicuro, protetto, monitorato. Dall'altra, la consapevolezza scomoda che *la libertà, come la fiducia, non si costruisce con il sospetto sistematico*, né con la scansione automatica della vita quotidiana. Come giuristi, abbiamo il dovere di analizzare le norme, ma anche di *porci domande scomode*: • È accettabile che ogni cittadino venga trattato come potenziale criminale, a prescindere da qualunque indizio? • Possiamo davvero affidarci alla tecnologia per giudicare cosa sia lecito o illecito, senza margine per il contesto, l'ambiguità, l'errore umano? • Siamo certi che strumenti progettati per un fine nobile non verranno, domani, estesi ad altri scopi meno legittimi? La storia del diritto è fatta anche di battaglie preventive, combattute prima che una norma entri in vigore, prima che diventi la prassi. Non dobbiamo aspettare che il sistema degeneri per riconoscere che l'equilibrio si è spezzato. Io non voglio vivere in un'Unione europea in cui i miei messaggi — anche quelli cifrati — devono passare attraverso il filtro di un'intelligenza artificiale prima di raggiungere chi amo. Non voglio un mondo in cui la sicurezza dei bambini viene usata come grimaldello per introdurre meccanismi di sorveglianza di massa. E non perché non mi importi dei bambini — al contrario. Ma perché *la protezione dei più vulnerabili richiede strumenti seri, mirati, intelligenti*, non scorciatoie tecnologiche che colpiscono tutti. Le vittime reali di abusi hanno bisogno di giustizia, non di algoritmi confusi. Hanno bisogno di indagini efficaci, supporto psicologico, cooperazione internazionale, risorse per le forze dell'ordine, non di un sistema che scansiona milioni di foto di compleanni per trovare un ago nel pagliaio. In questo momento storico, è necessario scegliere: vogliamo una civiltà digitale fondata sul rispetto, sulla fiducia, sull'autodeterminazione? O vogliamo scivolare, senza accorgercene, in una tecnocrazia del sospetto? Io scelgo la prima. Con convinzione, con fatica, con spirito critico. E con la consapevolezza che ogni norma va giudicata *non solo per ciò che promette oggi, ma per ciò che può diventare domani*. [ora riporto i capitoli precedenti] [...] Il cuore del problema: la scansione preventiva delle comunicazioni in chat ─────────────────────────────────────────────────────────────────────────── [...] Tecnicamente: un controllo su ogni messaggio prima che diventi privato. Giuridicamente: una sorveglianza preventiva e indiscriminata che assomiglia più a un regime autoritario che a uno stato di diritto. Eppure, proprio questo meccanismo è al centro della *proposta*, nonostante le molteplici obiezioni sollevate da esperti, giuristi, autorità indipendenti e attivisti digitali. Un attacco alla crittografia: l'effetto backdoor ──────────────────────────────────────────────── Uno degli aspetti più critici della proposta è la sua incompatibilità con i principi della *crittografia end-to-end*. [...] Se però si introduce uno strumento di scansione sul dispositivo *prima della cifratura*, questa garanzia viene infranta. Si crea una *backdoor tecnica* e concettuale, che mina l'integrità della crittografia, rendendo l'intero sistema più vulnerabile ad abusi, violazioni, attacchi informatici. Quindi da un lato ci sarebbe ilo controllo preventivo, che aprirebbe le porte ad una sorveglianza generalizzata, dall'altro l'apertura di una porta prima della cifratura renderebbe tutti i nostri dati più vulnerabili. [...] Sorveglianza generalizzata: il paradosso della presunzione ─────────────────────────────────────────────────────────── La Corte di giustizia dell'Unione europea ha diverse volte stabilito con chiarezza che *la sorveglianza indiscriminata delle comunicazioni è incompatibile con la Carta dei diritti fondamentali*. Solo misure mirate, proporzionate, basate su sospetti concreti e soggette a controllo giudiziario sono ammissibili. La proposta CSAR, al contrario, *propone uno scanning generalizzato* a tutti i cittadini europei, indipendentemente da ogni indizio o contesto. Il principio è ribaltato: non sei più innocente fino a prova contraria, ma potenzialmente sospetto fino a verifica algoritmica. E se l'algoritmo sbaglia — come spesso accade — potresti finire segnalato ingiustamente, senza neppure saperlo. [...] Falsi positivi, costi tecnici e sostenibilità ────────────────────────────────────────────── Dal punto di vista tecnico, la proposta si affida a sistemi di intelligenza artificiale, riconoscimento immagini e modelli linguistici per identificare contenuti illeciti. Ma questi strumenti, per quanto evoluti, *non sono infallibili*. Anzi, producono falsi positivi in misura significativa (nel mio piccolo, ricordo che una volta un mio contenuto su un social è stato segnalato come “sessualmente esplicito”: parlavo di privacy e avevo una maglietta senza maniche a collo alto nera, credo la combinazione meno sessualmente esplicita che si possa immaginare). Lo dimostra il caso di alcuni software già in uso da piattaforme americane, come PhotoDNA o Thorn: immagini lecite di bambini (es. al mare, in contesti familiari) sono state etichettate come sospette. In assenza di un controllo umano tempestivo, il danno può essere significativo: blocco degli account, segnalazioni penali, stigmatizzazione sociale. [...] Il principio della proporzionalità (che manca) ────────────────────────────────────────────── Come ogni regolamento europeo, anche il CSAR deve *rispettare il principio di proporzionalità sancito dall'art. 5, par. 4, TUE:* le misure di sicurezza adottate devono essere adeguate, necessarie e proporzionate rispetto agli obiettivi. [...] La Corte Europea dei Diritti dell'Uomo, nella giurisprudenza su privacy e sorveglianza, ha più volte ribadito che il controllo preventivo indiscriminato *non può essere giustificato* neppure per finalità di sicurezza nazionale. Figurarsi per la prevenzione di reati, per quanto gravi. [...] --8<---------------cut here---------------end--------------->8--- Saluti, 380° -- 380° (lost in /traslation/) «Welcome to the chaos of the times If you go left and I go right Pray we make it out alive This is Karmageddon»
participants (1)
-
380°