Il Blueprint for an AI Bill of Rights americano e l’annuncio della nuova bozza del regolamento europeo in materia riportano all’attenzione del pubblico il dibattito su come regolare questa tecnologia ed evidenziano la coazione a ripetere un errore concettuale: regolare il “come” e non il “cosa” di Andrea Monti – Inizialmente pubblicato su Strategikon – un blog di Italian Tech
Per capirci: il codice penale punisce l’omicidio a prescindere da come viene commesso. C’è un solo articolo basato sul concetto che chiunque cagiona la morte di un uomo è punito. Non c’è un articolo per l’omicidio con il coltello, uno per l’omicidio con la pistola, il veleno o qualsiasi altro “come” consente di realizzare il “cosa”. Anche senza essere professori ordinari di diritto o giudici della Corte costituzionale si comprende facilmente il perché di questa scelta: ciò che conta sono gli effetti di un comportamento umano. Tutto il resto riguarda l’attribuzione della responsabilità o la gravità della pena, ma la sostanza è punire la conseguenza concreta di un’azione che può essere compiuta in tanti modi.
Lo stesso criterio vale per la responsabilità civile, quella che disciplina il risarcimento dei danni. Il codice civile all’articolo 2043 in modo semplice e chiaro, stabilisce che Qualunque fatto doloso o colposo, che cagiona ad altri un danno ingiusto, obbliga colui che ha commesso il fatto a risarcire il danno. Applicando lo stesso ragionamento fatto per l’omicidio, poco importa che una persona abbia subito un danno perché un software ha funzionato male o è stato mal progettato —questo, infatti, riguarda il “come”— perché una volta verificatosi il danno – il “cosa” – esso va risarcito senza se e senza ma.
Dunque, invece di stabilire che il software non è come la Divina Commedia (cioè un’opera “creativa”) ma è un prodotto e che, dunque, si applicano le norme sulla responsabilità civile e penale di chi lo realizza, il legislatore comunitario si avventura in improbabili e impossibili distinguo su come dovrebbe funzionare e come dovrebbe essere progettata una tecnologia.
Con l’IA (ma in realtà con tanti altri fenomeni che riguardano le tecnologie dell’informazione) questo errore concettuale si ripete. Il regolamento UE sull’intelligenza artificiale, in particolare, continua a mostrare un approccio iperdirigista in base al quale, se continua così, l’Unione pretenderà di stabilire per legge il modo in cui gli elettroni ruotano attorno al nucleo di un atomo, oppure stabilirà a che velocità deve andare la luce (con tanto di sanzione per il superamento del limite). È chiaro che decisioni del genere vengono assunte in base al palese errore concettuale di antopormofizzare un oggetto per poi pretendere, di conseguenza, di poterlo regolare direttamente come fosse un soggetto di diritto.
Parlare di “trasparenza algoritmica” o paventare la “minaccia tecnologica” è un modo per spostare l’attenzione dalle persone alle cose e dunque di deresponsabilizzare gli unici soggetti che dovrebbero, invece, subire le conseguenze di errori e —più spesso— di scelte deliberate: coloro che queste tecnologie le progettano, realizzano e vendono.
Il tema della responsabilità del produttore di software è tanto enorme quanto sistematicamente trascurato. Fino a quando chi costruisce programmi e piattaforme sarà sostanzialmente al riparo da qualsiasi responsabilità per i danni causati da programmi mal scritti o venduti quando non hanno ancora raggiunto un livello di sicurezza accettabile, non sarà possibile avere un reale incremento della sicurezza complessiva del nostro distopico “ecosistema” tecnologico.
In conclusione, quindi, non solo per l’AI il modo migliore per garantire la tutela dei diritti e la sicurezza del “sistema” è applicare anche ai produttori di software la regola aurea del “chi sbaglia, paga” invece di vagheggiare fantasiose “regole” per l’intelligenza artificiale che, in realtà, è soltanto un pezzo di codice.
Applicare un principio di buon senso come questo, però, incontrerebbe le fortissime resistenze del potente comparto industriale Big Tech e – controintuitivamente e per ragioni diverse – anche di chi sviluppa software non essendo un colosso del settore. Molto meglio, quindi, non svegliare il cane che dorme e lasciare che sia la coda ad agitarlo.
Possibly Related Posts:
- Dentro il G-Cans
- Chatbot troppo umani, i rischi che corriamo
- Qual è il significato geopolitico del sistema operativo Huawei Harmony OS Next
- TeamLab Planets: da Tokyo la fuga verso i mondi della mente
- Chi ci protegge dal dossieraggio tecnologico?