La tappa dello Human Genome Meeting iniziata ieri a Roma è l’occasione per tornare a parlare di un argomento tanto fondamentale quanto scomodo: l’impatto della “isteria per la privacy” sulla possibilità di fare ricerca grazie all’enorme quantità di dati che, oggi, siamo in grado di raccogliere sul modo in cui funzioniamo – e ci “rompiamo” di Andrea Monti – Inizialmente pubblicato su Strategikon – un blog La Repubblica-Italian Tech
La mappatura del genoma umano è stata una pietra miliare per lo sviluppo della conoscenza dell’uomo, ma ha rappresentato un punto di partenza, non di arrivo. L’aumento delle prestazioni degli strumenti di analisi di campioni genetici, della potenza di calcolo dei computer e delle capacità dei software (per esempio, non sappiamo ancora fino a che punto si arriverà con il deep learning) rendono irrinunciabile una presa di posizione chiara dei legislatori nazionali e delle istituzioni transnazionali sulla possibilità di usare i dati – tutti i dati – per potenziare la ricerca medico-scientifica.
L’esperienza drammatica della pandemia ha evidenziato chiaramente l’impatto dei pregiudizi ideologici relativi a una distorta nozione di “privacy” sulla possibilità di contrastare efficacemente una malattia tramite la raccolta e l’analisi dei dati. Per una volta infatti, e in termini generali, non sono tanto le norme a bloccare la ricerca quanto la loro interpretazione miope e burocratica.
Il regolamento per la protezione dei dati personali (GDPR) contiene delle semplificazioni operative quando i dati sono raccolti nell’interesse pubblico della tutela della salute, lo Health Data Space europeo promette di agevolare la messa a fattor comune dei dati per potenziare la ricerca. Tuttavia, la quotidianità della pratica racconta storie diverse, come nel caso della bizzarra interpretazione del concetto di “uso secondario” (cioè della possibilità di utilizzare dati dei quali già si ha la disponibilità) in nome della quale se ho raccolto dei dati per la ricerca sull’Alzheimer non posso riutilizzarli per fare ricerca sul diabete senza chiedere nuovamente il consenso ai pazienti, o quello del pretendere che persino le ricerche osservazionali retrospettive (quelle eseguite esclusivamente su dati anonimizzati e non “in vivo” sui pazienti) siano soggette al parere dei comitati etici e alla prestazione del consenso del paziente (posto che sia ancora in vita).
Bisognerebbe rendersi conto, una volta e per sempre, che la ricerca basata sui (big) data e sui metodi per analizzarli non può essere gestita strumentalizzando una norma come il GDPR, peraltro antidiluviana, in modo da bloccare la circolazione dei dati.
In attesa che la UE batta un colpo, sarebbe già possibile rendere più semplice il lavoro di chi lavora per guarire le persone, basta volerlo, perché non possiamo, in nome di principi avulsi dalla realtà, pretendere di tutelare la persona e, per questo, sacrificare l’individuo.
Non è giusto nei confronti della Scienza, non è giusto nei confronti degli scienziati, ma soprattutto non è giusto nei confronti di chi, in nome di astrusi ragionamenti, si vede negare la speranza di sconfiggere il male.
Possiamo senz’altro continuare a crogiolarci nella contemplazione di (zoppicanti) architetture normative, ma nel frattempo gli altri Paesi bruciano le tappe e inseriscono la ricerca nel loro arsenale geopolitico.
Un tempo era essenzialmente la superiorità bellica a garantire la possibilità di creare rapporti di subordinazione con altri Paesi, poi è arrivata Big Tech a condizionare l’operato di amministrazioni e imprese, e ora – grazie alla sinergia fra IA, robotica e biosensori – la nuova frontiera è il controllo diretto sull’essere umano.
Di fronte a uno scenario del genere non ci sono troppe opzioni: possiamo solo decidere se stiamo dalla parte di chi crea la tecnologia e la usa per il bene comune, oppure se stare dalla parte di chi questa tecnologia può solamente usarla sempre che, beninteso, chi la controlla gli accordi graziosamente – pagando s’intende – questa possibilità.
Possibly Related Posts:
- Chatbot troppo umani, i rischi che corriamo
- TeamLab Planets: da Tokyo la fuga verso i mondi della mente
- Chi ci protegge dal dossieraggio tecnologico?
- Webscraping e Dataset AI: se il fine è di interesse pubblico non c’è violazione di copyright
- Perché Apple ha ritirato la causa contro la società israeliana dietro lo spyware Pegasus?