Questo articolo, scritto insieme a Guido Scorza, è stato pubblicato da Huffingtonpost.it.
Apple ha recentemente annunciato l’intenzione di scansionare, per ora nei soli Stati Uniti d’America, il contenuto dei dispositivi dei suoi milioni di utenti alla ricerca di immagini pedopornografiche. Fatto che ha innescato un dibattito globale di magnitudine enorme. È comprensibile, ma difficilmente accettabile.
Due questioni, tra le tante relative alla governance dell’ecosistema digitale, emergono prepotenti: il ruolo dei soggetti privati nella tutela dell’ordine e della sicurezza pubblici e i limiti alla comprimibilità dei diritti fondamentali – riservatezza, inviolabilità delle comunicazioni, giusto processo – nel perseguimento dei reati anche più odiosi come la pedopornografia.
Provando a condensare in una manciata di battute un ragionamento che meriterebbe ben più ampia trattazione, questo è il punto di partenza. I privati fanno business e – per quanto rispettosi dell’etica e dei diritti – legittimamente agiscono alla ricerca della massimizzazione del profitto e rispondono prima a mercato e azionisti e, solo dopo, a Costituzioni e diritti fondamentali. Lo Stato si occupa del benessere dei cittadini, della tutela dell’ordine e della sicurezza pubblici, della protezione dei diritti, dettando regole che identifichino ponderate posizioni di bilanciamento tra interessi diversi, mai rivali e, soprattutto, mai tiranni. E, naturalmente, vigila sul rispetto delle leggi —alle quali esso stesso si sottopone— e sulla loro applicazione.
La cooperazione con il settore privato è diventata, a torto a ragione, una componente essenziale per il funzionamento dello Stato. Tanto, però, non basta per accettare l’idea che sia il soggetto privato a dettare le regole, accertare e identificare eventuali violazioni, adottare iniziative e provvedimenti che comprimano i diritti dei propri utenti che sono, innanzitutto, cittadini di una democrazia. E questo è vero anche e soprattutto quando un soggetto privato ha una presenza sul mercato tanto importante da rendere difficile per i suoi utenti scegliere di sottrarsi alle sue regole, smettendo di usare in tutto o in parte i suoi servizi.
Il “territorio” del nuovo ecosistema digitale è, di fatto, rappresentato da grandi piattaforme gestite da una manciata di società private. Queste ultime si sono procurate una condizione privilegiata nel mantenimento dell’ordine e della sicurezza così come nella tutela dei diritti. Prima si sostituivano alle autorità pubbliche a volte su esplicita richiesta dei policy maker come nel caso dei “protocolli d’intesa” per il contrasto alle fake-news, a volte sulla base di obblighi normativi, come nel caso della conservazione indiscriminata dei dati di traffico telematico. Ora assumono iniziative dirette “in nome dei diritti fondamentali”: non si è ancora spenta l’eco della polemica sulla chiusura d’imperio dell’account social dell’allora presidente USA Donald Trump o delle tante censure più o meno automatizzate messe in piedi da piattaforme di condivisione di contenuti e messaggi, che arriva l’annuncio di Apple.
Possiamo accettare questa progressiva cessione di sovranità a favore di soggetti privati e, per di più, extracomunitari? Anche nell’ecosistema digitale lo Stato deve continuare a fare lo Stato e non può e non deve abdicare al suo ruolo a favore di soggetti privati. Ben venga la collaborazione con soggetti privati, ma sulla base di una gerarchia chiara delle priorità: prima gli interessi nazionali e poi, sempre nel rispetto della legge, quelli privati.
In questa prospettiva – che è più di metodo che di merito – l’iniziativa di Apple non può convincere perché si arroga il potere che non le compete di dettare e applicare regole comprimendo e, anzi, travolgendo diritti fondamentali in una misura e con metodi stabiliti autonomamente nella sala del consiglio di amministrazione di una società privata e non in un Parlamento.
La seconda questione che la vicenda ha imposto all’attenzione della comunità globale è, se possibile, più complessa e delicata della prima. È fuori discussione che il fenomeno della pedopornografia vada prevenuto e represso. Neppure il diritto alla privacy – che non è evidentemente un diritto assoluto né un diritto tiranno – può rappresentare, in linea di principio, un limite invalicabile nel contrasto a un fenomeno criminale di questo genere. Non è possibile stabilire un criterio generale, ma la Costituzione affida al legislatore prima e ai magistrati poi il compito di bilanciare, in concreto e caso per caso, la compressione di questo diritto. Ne è testimone il dibattito sull’uso — poi regolamentato per legge— dei captatori informatici. Al tempo stesso, è fuor di dubbio che non è né giuridicamente, né democraticamente sostenibile l’idea secondo la quale in nome della prevenzione di un fenomeno criminale, per quanto odioso, si possano travolgere i diritti —non solo quello alla riservatezza— di decine di milioni di persone innocenti.
Quella che ha identificato Apple – a prescindere da quanto si è già detto in relazione al fatto che non toccava a lei farlo – è una posizione di equilibrio accettabile? Partiamo da un punto fermo: il Regolamento sulla protezione dei dati personali è, da questo punto di vista, un muro invalicabile. Qualsiasi trattamento è sottoposto a un fine (la tutela dei diritti e delle libertà fondamentali della persona) e a un mezzo (il rispetto della legge). Dunque, le scelte etiche individuali basate sul “fare la cosa giusta” non possono servire per aggirare un ostacolo insormontabile: il primato dello Stato sulla prevenzione e sulla repressione criminale. Inoltre, ed è un altro fronte protetto dal GDPR, non si può consentire che, aperta una strada in nome della sacrosanta battaglia contro la pedopornografia online, la stessa strada possa essere, domani battuta per perseguire altre finalità meno rilevanti, meno nobili o, addirittura, in taluni casi niente affatto nobili.
In Europa, ad oggi – e salvo rivalutare il caso a valle dell’eventuale approvazione definitiva della proposta di Regolamento europeo sul c.d. chat control – la soluzione contrasterebbe con la disciplina sulla privacy e con il divieto di svolgere indagini private stabilito dal Testo Unico delle Leggi di Pubblica Sicurezza e dalle regole sulle indagini difensive. A valle della ricerca Apple, senza avere né poter avere – in assenza di una decisione di un Giudice o di un’Autorità – alcuna certezza sulle responsabilità dell’utente sul cui dispositivo è stata identificata – o si è ritenuto di identificare – l’immagine a contenuto pedopornografico, sospende o chiude l’account di quest’ultimo e lo marchia, nella sostanza, come pedofilo. Questo passaggio del processo è giuridicamente e democraticamente inaccettabile e poco conta che secondo Apple il rischio di un falso positivo nel riconoscimento delle immagini sia pressoché inesistente. Nessuno può essere classificato, in un database privato, come coinvolto in un’attività criminale tanto odiosa. E nessuna legge potrebbe consentirlo.
Quanto al secondo livello di analisi il rischio che l’oggettività dell’analisi lasci il posto alle emozioni è più elevato perché il ragionamento è, necessariamente, per ipotesi. Non c’è dubbio – e in ambiti diversi è già accaduto – che aperta questa strada e lanciato quest’approccio tecnologico al contrasto a un fenomeno criminale, domani Apple – e, naturalmente, non solo Apple – potrebbe sentirsi chiedere, magari questa volta da un Governo, di utilizzarlo per contrastare fenomeni diversi e potrebbe fare grande fatica a opporsi sia su base giuridica che di convenienza commerciale. È già successo quando il FBI chiese di indebolire la sicurezza del sistema operativo degli iPhone, ricevendo un netto rifiuto da parte di Apple “in nome della privacy”.
Possiamo essere certi che quanto eventualmente legittimato in relazione alla pedopornografia online, non sia riproposto per il contrasto alla pirateria audiovisiva per esempio o, magari, peggio, per la ricerca di contenuti leciti ma considerati da un qualche governante eversivi non per l’ordine democratico ma per i propri egoistici interessi? I pericoli costituiti da scelte come quelle di Apple —ma anche dalla proposta di regolamento comunitario sul chat control— sono troppi per considerare anche solo in via eccezionale l’ammissibilità di soluzioni tecniche e normative del genere.
Non possiamo, tuttavia, sottrarci all’inevitabile domanda che sorge alla fine di questo ragionamento: e allora? Allora la risposta al “che fare?” non può che prendere atto di due fatti e trarre una conclusione. Il primo fatto: già esistono strumenti normativi che consentono alle forze dell’ordine di fare attività preventiva e repressiva. Il secondo fatto: i limiti all’efficacia delle indagini riguardano piuttosto la carenza di mezzi e, sopratutto, l’ancora immatura —per non dire inesistente— cooperazione internazionale che impedisce, se non in casi ancora troppo rari, di compiere azioni coordinate fra più Paesi. La conclusione quale che sia lo strumento tecnologico da impiegare in un’indagine criminale —e dunque ipoteticamente anche una scansione automatizzata di contenuti privati— solo le istituzioni pubbliche dovrebbero avere il potere di comprimere i diritti dell’individuo nel rispetto delle garanzie e secondo procedure chiare e predeterminate.
Possibly Related Posts:
- Dentro il G-Cans
- Chatbot troppo umani, i rischi che corriamo
- Qual è il significato geopolitico del sistema operativo Huawei Harmony OS Next
- TeamLab Planets: da Tokyo la fuga verso i mondi della mente
- Chi ci protegge dal dossieraggio tecnologico?