Le soluzioni per contrastare illeciti e atti politicamente destabilizzanti suscitano dubbi e preoccupazioni per i loro effetti collaterali sulla Costituzione di Andrea Monti – Inizialmente pubblicato su Strategikon – un blog di Italian Tech
L’uso dei servizi di comunicazione elettronica per commettere illeciti e atti politicamente destabilizzanti è un problema serio e concreto. Tuttavia, le soluzioni proposte a livello comunitario nazionale – specie per il modo in cui sono presentate – suscitano dubbi e preoccupazioni per i loro effetti collaterali sull’esercizio dei diritti garantiti dalla Costituzione.
Si può discutere, individualmente, della correttezza della singola misura o della necessità di bilanciare interessi contrapposti e dunque trovare un compromesso praticamente accettabile. Tuttavia, guardate nel loro insieme, queste scelte politiche trasmettono la netta percezione di essere ispirate al noto principio del “fine che giustifica i mezzi” – o a quello del “non andare troppo per il sottile”.
Dunque, poco importa che la responsabilità giuridica sia di chi commette un illecito e non di terzi estranei al fatto. È irrilevante che considerare “sospettati di default” tutti gli utenti a prescindere dal loro concreto coinvolgimento in azioni illegali sia una scelta che ricorda altri tempi e altri regimi. È di marginale importanza che sui diritti garantiti dalla costituzione possa decidere solamente un giudice e non una piattaforma o, peggio, un gruppo organizzato di “segnalatori” professionali. Sta di fatto che “in nome della tutela dei diritti”, l’Unione Europea ha promosso iniziative che mettono in pericolo proprio quei diritti che essa intenderebbe tutelare.
I casus belli sono la sempreverde “tutela dei minori”, affiancata dall’altrettanto onnipresente “lotta alla pirateria” e, più di recente, dalla scoperta della necessità di “combattere le fake news” che attentano alla sopravvivenza della democrazia.
Le risposte a questo “stato di emergenza” sono consistite nel proporre il bando della client-side encryption (la cifratura di un contenuto direttamente sul proprio terminale, prima dell’invio), nel finanziamento di un resolver DNS europeo, nel proporre il blocco immediato dello streaming non autorizzato delle riprese di eventi sportivi, nella creazione di un sistema di denuncia basata sui cosiddetti “trusted flagger” – strutture analoghe ai delatores del diritto romano.
Il denominatore comune di queste proposte è il “filtraggio” che tradotto in termini più concreti significa controllo preventivo e indiscriminato di tutti gli utenti della rete prima e a prescindere dall’eventuale commissione di un fatto illecito.
Pragmaticamente, si potrebbe dire, la quantità degli illeciti commessi tramite i servizi di comunicazione elettronica è talmente elevata che – pur volendo – non ci sarebbero abbastanza investigatori e giudici per gestire i processi. Di conseguenza sarebbe inevitabile trovare strade alternative e coinvolgere gli operatori di accesso, chiedendo loro di intervenire “in via preventiva”. Tuttavia, la “prevenzione” è un concetto molto delicato, perché in suo nome si possono giustificare azioni di qualsiasi tipo, ivi comprese dottrine come quelle della “guerra preventiva”. Da un altro punto di vista, gli obblighi giuridici di controllo e rimozione dei contenuti che saranno imposti alle piattaforme si traducono, nei fatti, nel trasferimento ad un soggetto privato del potere di decidere cosa sia lecito fare e cosa no. Complessivamente, dunque, siamo di fronte alla rinuncia delle istituzioni ad esercitare il potere giudiziario.
Alla luce di queste considerazioni, dovremmo chiederci se siamo veramente disposti ad abbandonare il diritto ad essere giudicati da una corte per l’accusa di avere fatto qualcosa, in favore del controllo sistematico e preventivo di ogni nostro comportamento perché potremmo – potremmo – fare qualcosa di sbagliato.
Anche in Italia ci sono, e non da oggi, iniziative analoghe sia sul versante giudiziario, sia su quello normativo. Non sono animate da impulsi repressivi, ma da un insieme di scarsa conoscenza delle dinamiche digitali e dalla necessità di “fare qualcosa”, purché sia. Nei fatti, dunque, provvedimenti giudiziari e normativi si prestano ad effetti probabilmente non voluti dai chi li propone, eppure afflittivi delle libertà costituzionali.
Dopo la conferma da parte della Cassazione che si possono intercettare indiscriminatamente le query ai DNS dei cittadini italiani per bloccare quelle dirette verso risorse straniere e dunque non immediatamente raggiungibili dalle autorità, dal 2009, i “sequestri per oscuramento” sono diventati una scorciatoia diffusamente seguita, invece di percorrere la strada maestra del ricorso alla cooperazione giudiziaria internazionale. In attesa che le varie proposte (AC-1357 – Butti, AC-2679 – Zanella, DDL AC-2188 – Capitanio) trasformino in legge questa discutibile prassi giudiziaria e spostino inaccettabilmente sugli operatori di accesso obblighi e pesanti responsabilità che dovrebbero invece riguardare chi commette l’illecito, non soggetti terzi, l’Autorità per le comunicazioni ha da poco avviato il processo per attuare la normativa sul “parental control”. Istituito dal decreto legge 28/20 e poi convertito, il provvedimento è stato frettolosamente qualificato come “filtro antiporno” ma in realtà molto più esteso e preoccupante. La norma, infatti, si applica indiscriminatamente a contenuti illeciti (come quelli la cui diffusione è punita dal Codice penale), vietati ai minori (e dunque leciti per i maggiorenni) o “inopportuni” (categoria del tutto assente dal vocabolario giuridico di settore).
Come ha fatto notare l’Associazione Italiana Internet Provider rispondendo alle consultazioni avviate dalle autorità e alla bozza di linee guida, non può spettare agli operatori l’obbligo di decidere preventivamente a “cosa” gli utenti possono avere accesso e a cosa no. Sia perché questo si tradurrebbe nella sostituzione ai genitori nell’esercizio della potestà genitoriale, sia perché significherebbe operare in via preventiva una scelta “etica” rispetto all’opportunità o meno di fruire di determinati contenuti. Decidere se un contenuto vada rimosso può spettare soltanto al giudice (che ha già il potere di farlo). Stabilire cosa sia “opportuno” mostrare ai minori è materia già affidata, per il cinema, alla “Commissione per la classificazione delle opere cinematografiche”. Se proprio non si vuole mettere l’utente in condizione di scegliere autonomamente le proprie blacklist o imporre ai fornitori di contenuti di contrassegnare ciò che pubblicano secondo un analogo criterio di classificazione, nulla vieterebbe di attribuire prerogative analoghe all’Autorità per le comunicazioni. In questo modo sarebbe chiaro “chi” sta vietando “cosa” e “perché”.
Per essere chiari: l’aspetto (molto) preoccupante dello scenario politico/giuridico europeo e nazionale non è la scelta in sé di adottare contromisure per tutelare i diritti della persona e dell’impresa, quanto piuttosto il modo e il metodo. Oramai da tempo è un fatto acquisito che la sicurezza delle infrastrutture digitali è gestita con il necessario e indispensabile contributo del settore privato. Tuttavia, continuare a considerare i fornitori di accesso come un capro espiatorio non è certamente il modo migliore per trovare soluzioni condivise, efficaci e sostenibili. Ma soprattutto non serve a evitare danni economici e tutelare le vittime di reati atroci.
—
Full disclosure: l’autore ha collaborato con l’Associazione Italiana Internet Provider all’audizione parlamentare sulle IP TV pirata e alla predisposizione delle risposte alla consultazione AGCOM sul parental control.
Possibly Related Posts:
- Chi ci protegge dal dossieraggio tecnologico?
- Webscraping e Dataset AI: se il fine è di interesse pubblico non c’è violazione di copyright
- Perché Apple ha ritirato la causa contro la società israeliana dietro lo spyware Pegasus?
- Le sanzioni UE ad Apple e Google aprono un altro fronte nella guerra contro Big Tech (e incrinano quello interno)
- La rottura tra Stati e big tech non è mai stata così forte