Un articolo pubblicato il 26 dicembre dal South China Morning Post titola Chinese scientists develop AI ‘prosecutor’ that can press its own charges. Secondo la notizia, dunque, sarebbe passato alla fase esecutiva il progetto iniziato nel 2015 e ora un software sarebbe in grado di fornire supporto ai magistrati inquirenti nel decidere se mandare a giudizio otto tipologie di crimini, fra le quali guida pericolosa, frodi e gioco d’azzardo. L’ambito di applicazione è, dunque, molto ristretto perché i reati analizzabili sono pochi e l’ultima parola spetta al magistrato. Non sono mancati, tuttavia, i soliti “allarmi” sul “giudice robot” e sull’ennesima dimostrazione di quanto sia pericolosa questa “intelligenza artificiale”. di Andrea Monti – Inizialmente pubblicato su Strategikon – Un blog di Italian Tech
A nulla serve far notare che gli utilizzi di questa tecnologia sono ristretti e non potranno estendersi oltre un certo confine per via delle limitazioni intrinseche del modo in cui funzionano i computer. A questa considerazione, infatti, si oppone il “oggi è così, ma domani? È un ragionamento logicamente sballato —un paralogismo, direbbero gli esperti— ma di grande potenza retorica: è molto convincente per chi non è esperto di un determinato argomento. Per capire l’errore di questo approccio basta pensare che possiamo agitare le braccia per tutta la vita —e far fare lo stesso a figli, nipoti e bisnipoti— ma non riusciremo mai a volare senza l’aiuto di qualche strumento tecnologico.
La base di questo paralogismo è la confusione fra scienza e fantascienza —spregiudicatamente sfruttata anche dall’industria di settore e subita da politici e professionisti dell’informazione— che porta ad umanizzare degli strumenti tecnologici attribuendo loro caratteristiche proprie degli esseri viventi. È un copione analogo a quello che si è visto per il “cyberspazio”, una parola che secondo chi la ha inventata, lo scrittore William Gibson, non significa assolutamente nulla ma che è diventata una presenza costante nella politica legislativa e nella dottrina giuridica occidentale. Dunque, complice anche l’industria dell’intrattenimento, si è radicata la percezione che presto o tardi vivremo in scenari come quelli di Bicentennial Man o I Robot (i film, non i romanzi di Isaac Asimov). Un riflesso di questa attitudine è la numerosità degli articoli nei quali commentatori rimangono attoniti di fronte alle “manifestazioni emotive” delle nuove iterazioni di Eliza come Sophia.
Fatta questa premessa, torniamo alla questione del “giudice robot” (come è stato impropriamente chiamato).
Il software funziona applicando un sistema di natural language processing. Dunque, analizza i rapporti degli inquirenti e i documenti di varia natura che costituiscono il fascicolo dell’indagine e valuta se gli elementi ricavati da questa analisi corrispondono a fatti punibili secondo la legge penale cinese. Se questo è quanto, c’è poco di cui preoccuparsi.
Dando per scontato che il software funzioni, magari aiutato da una standardizzazione del modo in cui si compilano i rapporti di polizia e i provvedimenti dei magistrati, ci sono dei reati che oggettivamente possono essere gestiti in modo automatico. Anche dalle nostre parti gli eccessi di velocità, la quantificazione degli assegni di mantenimento in caso di divorzio, la verifica della correttezza di un bilancio in caso di frodi, la concessione di crediti e finanziamenti sono sostanzialmente automatizzati. I programmi non saranno evolutissimi, ma rimane il fatto che una componente importante della decisione sulla vita (sociale) di una persona è affidata a strumenti automatizzati. E per quanto riguarda i timori sul “giudice automatico” basta considerare che in Italia oltre alle infrazioni rilevate con tutor e autovelox, anche il mancato rispetto dell’obbligo vaccinale viene accertato via software, invertendo l’onere della prova. Si riceve la contestazione e poi si deve dimostrare di non essere responsabili o di avere avuto una buona ragione per violare la norma. In gergo si chiama “inversione dell’onere della prova” e funziona per le violazioni minori e per quelle fiscali e non, invece, per i reati puniti dalle leggi penali.
Dal punto di vista del principio, dunque, non c’è differenza fra lo strumento messo a punto dagli scienziati cinesi e quelli utilizzati al di qua della Cortina di ferro. È impensabile che un enorme numero di (potenziali) violazioni possa essere gestito integralmente da operatori umani, tanto è vero che la giurisprudenza ha fatto salti mortali per sostenere la legittimità di “contestazioni postume” o formulate senza la firma autografa di chi le ha rilevate. Certo, in quei casi le violazioni riguardavano il codice della strada, ma come accade sistematicamente nel mondo del diritto, una volta stabilito un principio lo si può estendere, grazie alle sentenze, a qualsiasi altro ambito.
Il tema, dunque, non è “se” automatizzare lo studio delle prove ma capire quali sono le reali possibilità concrete per l’accusato di esercitare il diritto di difesa, quando le valutazioni del pubblico ministero derivano dall’analisi dei risultati delle indagini eseguite tramite un software.
Anche questo tema non è nuovo: tutti i processi a contenuto tecnico (frodi fiscali e finaziarie, responsabilità medica, disastri ambientali, crimini informatici) sono basati sui risultati di perizie e valutazioni tecniche. Si tratta di attività costose e gestite tramite consulenti non sempre all’altezza della loro reputazione. Oggettivamente, gli indagati che possono sostenere il peso economico delle consulenza hanno una possibilità in più rispetto a quelli che devono, per forza di cosa, affidarsi all’opera degli esperti che lavorano per l’accusa. Anche l’utilizzo di software per l’analisi dei risultati delle indagini non sfugge a questa regola. Un indagato ha il diritto di sapere come sono stati ricavati quei dati e dunque ha il diritto di chiedere che il funzionamento degli “algoritmi” sia verificato. Ma la giurisprudenza italiana ha già stabilito —in materia di prova informatica— che questo tipo di perizie non si possono chiedere. Bisogna, infatti, che l’indagato spieghi esattamente “dove” e “come” si sarebbe manifestato l’errore tecnico. Tuttavia, nel caso di software complessi come quelli di cui parla questo articolo, una prova del genere sarebbe praticamente impossibile da fornire e dunque una persona si troverà a dover subire un processo senza una reale possibilità di difendersi. A spaventare, dunque, non dovrebbe essere l’intelligenza artificiale di un pubblico ministero virtuale, ma quella reale di un magistrato vero, o —più precisamente— la sua mancanza.
—
Questo articolo è la sintesi rielaborata della relazione Intelligenza artificiale e diritto alla difesa presentata negli Stati generali del diritto di internet che si sono svolti a Roma, nell’università LUISS Guido Carli, dal 16 al 18 dicembre 2021.
Possibly Related Posts:
- Chi ci protegge dal dossieraggio tecnologico?
- Webscraping e Dataset AI: se il fine è di interesse pubblico non c’è violazione di copyright
- Perché Apple ha ritirato la causa contro la società israeliana dietro lo spyware Pegasus?
- Le sanzioni UE ad Apple e Google aprono un altro fronte nella guerra contro Big Tech (e incrinano quello interno)
- La rottura tra Stati e big tech non è mai stata così forte