Un articolo da poco pubblicato su IEEE Spectrum a firma di David Evan Harris, un ex dipendente di Meta, mette in guardia dai pericoli dell’IA sviluppata con un approccio “open source”, ritenendo che la libera disponibilità di modelli “non censurati” agevoli la commissione di atti illeciti e invocando, fra le altre cose il blocco dello sviluppo di nuovi modelli e l’emanazione di norme retroattive per gestire le licenze dei sistemi IA che superano una certa soglia di capacità (quale, però, non è indicato). L’autore non afferma certo che l’open source sia una pratica illecita e, anzi, ne riconosce i meriti ma ritiene che, nel caso dell’AI, non dovrebbe essere ammessa di Andrea Monti – Inizialmente pubblicato su Strategikon – un blog di Italian Tech – La Repubblica
Si tratta di una posizione concettualmente, culturalmente e giuridicamente non condivisibile perché attribuisce all’open source – termine che a stretto rigore giuridico significa poco e niente ma che viene utilizzato per indicare genericamente una regolamentazione “non proprietaria” dei diritti su beni immateriali – una responsabilità che non ha e non può avere.
La libera disponibilità del codice sorgente di un software ha reso possibile la creazione di Linux e di altri sistemi operativi che fanno funzionare la Big Internet così come la conosciamo oggi, lo sviluppo di programmi per eseguire penetration test e vulnerability assessment, piattaforme per firewall e antivirus, applicazioni di crittografia e tantissimi altri strumenti oggi irrinunciabili per chi vuole operare online in sicurezza.
È anche vero che gli stessi software possono essere usati per compiere dei reati se, per esempio, un Nmap è eseguito per trovare “porte aperte” da sfruttare con intenzioni criminali, se la scoperta di un bug che affligge un programma viene venduta sul mercato nero degli zero-days o un’applicazione di messaggistica è utilizzata per organizzare traffici illeciti. Dunque, il fatto che la libera disponibilità di questi strumenti possa consentire di usarli per fini inconfessabili implica che dovremmo “vietare l’open source”?
Evidentemente, no perché la responsabilità per illeciti e abusi è di chi li commette, non degli strumenti che utilizza. Inoltre, parafrasando la iconica risposta di Phil Zimmermann a chi chiedeva di vietare la crittografia, se gli strumenti open source sono messi fuori legge, solo i fuorilegge avranno strumenti opensource; mentre cittadini, imprese e istituzioni vedranno limitati arbitrariamente i propri diritti dalla Big Tech di turno. Questo vale a maggior ragione anche per le tecnologie IA.
C’è anche un altro motivo per cui non dovrebbe essere limitata la disponibilità dei modelli AI che possono essere modificati liberamente: preservare la loro capacità euristica, che dipende dall’assenza di limiti nella loro costruzione. Eliminare i “bias” significa, in realtà, introdurre quelli di chi addestra un modello (la Cina lo ha stabilito formalmente). Dunque, produrre modelli azzoppati – perché di questo si tratta – significa scegliere di partecipare a una gara di velocità con Paesi come la Francia (che sull’IA open source sta puntando tantissimo) avendo un piede in un secchio di cemento.
Come detto, l’autore dell’articolo riconosce il contributo dell’open source (meglio sarebbe dire del Free Software) nella democratizzazione della tecnologia, ma ritiene che nel caso dell’IA sia troppo alto il rischio derivante dalla disponibilità di modelli “aperti”, se messi nelle mani di criminali. Nello specifico, ritiene l’autore (la traduzione è mia), che “la minaccia rappresentata dai sistemi di intelligenza artificiale non protetti risiede nella facilità di abusarne. Sono particolarmente pericolosi nelle mani di malintenzionati, che potrebbero facilmente scaricare le versioni originali di questi sistemi di intelligenza artificiale e disabilitarne le funzioni di sicurezza, per poi creare le proprie versioni personalizzate e abusarne per un’ampia varietà di azioni criminali. Alcuni degli abusi dei sistemi di intelligenza artificiale non protetti comportano anche lo sfruttamento di canali di distribuzione vulnerabili, come i social media e le piattaforme di messaggistica. Queste piattaforme non sono ancora in grado di rilevare con precisione i contenuti generati dall’intelligenza artificiale su scala e possono essere utilizzate per distribuire quantità massicce di disinformazione personalizzata e, naturalmente, per commettere truffe. Ciò potrebbe avere effetti catastrofici sull’ecosistema dell’informazione e in particolare sulle elezioni. La pornografia non consensuale deepfake, altamente dannosa, è un altro ambito in cui l’IA non protetta può avere conseguenze profondamente negative.”
Questa lunga citazione evidenzia bene il difetto di impianto del ragionamento secondo il quale la diffusione di IA open source andrebbe limitata.
È vero che l’ecosistema digitale è intrinsecamente vulnerabile, ma lo è perché negli anni abbiamo tollerato e consapevolmente contribuito a creare un colosso con i piedi d’argilla, fatto, tanto per citare solo alcuni dei suoi componenti, di tecnologie malfunzionanti, versioni beta di software vendute come “definitive”, slogan truffaldini in nome dei quali un difetto di un software non è un bug ma una funzionalità, incompatibilità e obsolescenza programmate, destandardizzazione, impunità per chi vende software difettoso, induzione di false credenze negli utenti (come il “tutto gratis”, l’isteria per la privacy, la deresponsabilizzazione delle persone che trasformano, come scrive Luigi Zoja ne La morte del prossimo, il desiderio in diritto), sostanziale rinuncia delle forze di polizia e delle magistrature dei Paesi occidentali a perseguire azioni criminali, normative confuse e inapplicabili o, come nel caso del regolamento sulla protezione dei dati personali, applicate in modo parziale e ideologico. Pensare che la limitazione del regime di circolazione della proprietà intellettuale di un foundation model possa rimediare a tutto questo è, francamente, un po’ ingenuo.
L’open source, o meglio, la libera circolazione della conoscenza e degli strumenti per produrla, non sono un crimine, perché i criminali sono coloro che ne abusano e sono questi ultimi che dunque dovrebbero essere puniti.
Il principio secondo il quale si risponde per il fatto proprio colpevole è da sempre incardinato nel diritto penale liberale e, per quanto riguarda l’Italia, nella Costituzione. Applicare, come pure purtroppo sta accadendo sempre più spesso nelle norme europee, un principio di precauzione (risk-based, direbbero gli esperti) peraltro non sostenuto da analisi quantitative, significa vietare pregiudizialmente qualcosa “perché qualcuno potrebbe commettere abusi” e dunque aprire la strada verso il ritorno della “colpa d’autore”.
Il problema, dunque, non è se un’IA open source sia troppo pericolosa per essere messa a disposizione di chiunque, ma se abbiamo deciso di cambiare il criterio in base al quale affermiamo la responsabilità giuridica. In altri termini, dovremmo chiederci senza ipocrisie se vogliamo mantenere – come accade ora – la regola per la quale si è giudicati sulla base delle conseguenze di un’azione oppure se – come si vorrebbe da più parti – sulla base di quello che potrebbe accadere, anche se non abbiamo fatto nulla.
Per essere chiari, questo significa passare da un sistema nel quale un giudice decide sui fatti, a un sistema nel quale il potere di decidere delle sorti di un essere umano è affidato ad un oracolo che in passato prediceva il futuro sulla base delle interiora degli animali o del moto delle stelle e, domani grazie a un’IA “debitamente” addestrata.
Ma da chi?
Possibly Related Posts:
- Dentro il G-Cans
- Chatbot troppo umani, i rischi che corriamo
- Qual è il significato geopolitico del sistema operativo Huawei Harmony OS Next
- TeamLab Planets: da Tokyo la fuga verso i mondi della mente
- Chi ci protegge dal dossieraggio tecnologico?