di Andrea Monti – PC Professionale n. 299 del 24 febbraio 2016
I fatti sono di dominio pubblico e li abbiamo descritti con dettaglio sul nostro sito: un giudice americano ha ordinato a Apple (che ha rifiutato) di mettere il Federal Bureau of Investigation (FBI) in condizioni di accedere a un iPhone utilizzato da indagati per terrorismo.
E, tutto d’un tratto, le lancette dell’orologio tornano al 1991 quando Phil Zimmermann fece in modo di far uscire dagli USA una copia di Pretty Good Privacy (PGP), l’implementazione software di un algoritmo a chiave pubblica, che rese possibile dare al resto del mondo la disponibilità di crittografia forte.
Nel tentativo di rimettere il genio nella bottiglia, le autorità americane accusarono Zimmermann di avere violato le norme sull’esportazione di armi, ma non riuscirono a farlo condannare.
Fu così che, da quel momento, terroristi, pedofili e criminali comuni riuscirono a commettere i loro crimini efferati senza che le forze dell’ordine potessero impedirlo. Questo è, perlomeno, quanto affermarono i sostenitori del diritto dello Stato a spiare indiscriminatamente i cittadini, in nome del “greater good”, del “bene superiore”.
Dall’altro lato, i (non sempre disinteressati) talebani della privacy si opposero citando come un disco rotto la frase di Benjamin Franklin secondo il quale “chi è disposto a barattare la propria libertà in cambio di una temporanea sicurezza non merita né l’una né l’altra”.
Rimettiamo avanti le lancette dell’orologio e torniamo a oggi. Il contenuto del dibattito è sostanzialmente lo stesso: la polizia accusa Apple di non cooperare, e Apple si difende – in una lettera indirizzata ai propri clienti – enfatizzando il fatto che rendere l’iPhone “impermeabile” al cracking serve a tutelare i loro diritti.
La storia si ripete, dunque? Non esattamente.
Zimmermann fece l’upload dei sorgenti di PGP e non dell’eseguibile e rese possibile la creazione di versioni gratuite e duplicabili di quel software. Apple, avvalendosi della legge sul copyright, ha la possibilità di rifiutare la consegna dei sorgenti di iOS.
Apple è un’azienda che ha come fine il profitto e che orienta le proprie decisioni in funzione della massimizzazione dei propri utili. In questo senso, dunque, i diritti degli utenti – ma se li chiamiamo “clienti” tutto è più chiaro – sono solo uno dei fattori presi in considerazione nelle scelte aziendali.
La scelta di blindare le versioni da iOS 8 in poi consente a Apple da un lato di non doversi sottoporre alla burocratica e vessatoria normativa europea in materia di dati personali, e dall’altro di limitare la possibilità di essere chiamata in giudizio per violazione della privacy degli utenti.
Un altro aspetto interessante della posizione pubblica di Apple è che, a suo dire, ha deliberatamente incrementato i livelli di sicurezza di iOS fino al punto di non essere in grado di utilizzare il processo di estrazione dei dati da un device che usa quel sistema operativo. Il che, legalmente, si traduce nell’affermazione: non posso fare l’impossibile.
Ma, se non ricordo male, nel caso Napster (il “padre” del P2P) un giudice newyorkese stabilì il principio secondo cui la responsabilità di chi aveva sviluppato il client era nell’avere deliberatamente evitato di implementare misure a tutela del diritto d’autore. In altri termini, sosteneva il giudice, sapendo che il software sarebbe stato utilizzabile anche per veicolare opere duplicate illegalmente, sarebbe stato necessario inserire dei meccanismi che lo impedissero. Il giudice ipotizzava, dunque, una specie di “responsabilità da progettazione”. Se anche per Apple valesse lo stesso principio, proprio il fatto che iOS è stato progettato per non consentire l’estrazione dei dati sarebbe la prova di una responsabilità dell’azienda, con tutte le conseguenze del caso.
Apple, inoltre, sostiene che introdurre in iOS backdoor e sistemi di sorveglianza sarebbe pericoloso. Ma perché Apple dovrebbe godere di un’esenzione quando ISP e operatori telefonici sono già obbligati a consentire l’uso della loro infrastruttura per intercettare voce e dati? E poi, a che titolo Apple si arroga il diritto di stabilire cosa sia accettabile nell’ambito di un’indagine penale? Piaccia o no, solamente lo Stato è legittimato a prendere decisioni del genere. E gli interessi privati di un’azienda non possono essere il punto di riferimento per decidere quale sia il raggio d’azione del potere di un pubblico ministero.
E arriviamo finalmente al punto. Il dibattito fra i “punitori” e i “talebani della privacy” è viziato da una scomoda domanda non posta: come è possibile che – quando sono in gioco i nostri diritti – siamo ridotti a doverci fidare dello Stato che promette di non abusare dei propri poteri o di un’azienda privata che dichiara di volerci proteggere per vendere più telefoni?
Possibly Related Posts:
- Chi ci protegge dal dossieraggio tecnologico?
- Webscraping e Dataset AI: se il fine è di interesse pubblico non c’è violazione di copyright
- Perché Apple ha ritirato la causa contro la società israeliana dietro lo spyware Pegasus?
- Le sanzioni UE ad Apple e Google aprono un altro fronte nella guerra contro Big Tech (e incrinano quello interno)
- La rottura tra Stati e big tech non è mai stata così forte