La notizia dell’azione legale contro ChatGPT promossa da una persona che “lo” accusa di diffamazione è stata ampiamente commentata come ennesimo esempio della “pericolosità dell’intelligenza artificiale” e della “necessità di regole” per “domare la bestia” con ciò implicitamente confermando le “preoccupazioni” avanzate da varie entità pubbliche, in Italia e altrove. La vera notizia, tuttavia, è l’ennesima dimostrazione di quanto illogicità, fideismo e ignoranza possano prevalere contro i fatti, la storia e la ragione di Andrea Monti – Inizialmente pubblicato su Strategikon – un blog di Italian Tech
ChatGPT non è un soggetto ma uno strumento, per ragioni contingenti e strutturali è molto meno “pericoloso” di un motore di ricerca e il suo utilizzo pone, sì, problemi, ma problemi che risalgono agli albori dell’informatica e anche più indietro nel tempo —come la responsabilità del produttore (si, “produttore”, non “autore”) di software— quella dei cosiddetti “intermediari” e, infine, dei fornitori di servizi di piattaforma. A questo potremmo aggiungere, ove dimostrati individualmente, i fatti di “appropriazione” di dati di varia natura e la necessità di trovare una soluzione giuridica al paradosso del sorite. Si tratta di problemi concreti, alcuni dei quali risolti a colpi di leggi e sentenze, e altri ancora in cerca di una soluzione ragionevole, ma che non hanno nulla a che vedere con la superstiziosa convinzione secondo la quale un’AI generativa basata su un LLM sarebbe dotata di libero arbitrio e, come tale, suscettibile di essere considerata “responsabile” di ciò che fa.
Nel caso di ChatGPT sarebbe sufficiente la lettura di questo articolo di Stephen Wolfram — il creatore di Mathematica— per schiarirsi le idee e capire che molti degli asseriti “problemi” derivanti dall’uso di questo software non esistono e altri sono senz’altro da ridimensionare. Ma se anche in questo caso la matematica del lavoro è troppo complessa da capire, allora per dimostrare l’ipotesi che sta alla base del ragionamento di questo articolo è necessario seguire un percorso puramente argomentativo.
ChatGPT non è una “persona”
In primo luogo, come spiego dettagliatamente in The Digital Rights Delusion, si può anche ipotizzare il conferimento di una “personalità giuridica” a un software e dunque anche a un’AI, ma sarebbe inutile, sbagliato e pericoloso. Tecnicamente si tratterebbe di quella che in gergo si chiama “fictio juris” —finzione giuridica— come quella secondo la quale una società di capitali ha un’autonomia analoga a quella di una persona fisica. Il concetto può sembrare astruso —lo è— ma si capisce se si pensa, ad esempio, alla Nazionale di calcio. Non esiste una “signora Nazionale”, i suoi componenti cambiano nel corso del tempo, ma la Nazionale rimane sempre uguale a sé stessa e dunque —come una società commerciale—può essere considerata (attenzione: “considerata”) come un soggetto autonomo. La caratteristica di una persona giuridica è che, come il corrispondente naturale —l’essere umano— può operare in autonomia tramite i propri organi (le persone che la compongono come, per tornare all’esempio della Nazionale, i giocatori, l’allenatore, lo staff), essere titolare di diritti e doveri ma, soprattutto di responsabilità cioè della capacità di subire le conseguenze delle proprie azioni. Nel caso di un software, a prescindere da quanto sia sofisticato e “autonomo” questo, semplicemente, non è possibile perché, fra l’altro, essere in grado di funzionare in modo intelligente non significa (essere coscienti di) esserlo. E anche se la differenza venisse annullata o diventasse fattualmente irrilevante questo non consentirebbe di estendere la natura di “persona giuridica” a un macchinario perché il concetto di personalità giuridica presuppone sempre e comunque la presenza di esseri umani che ne incarnano il comportamento. A margine, peraltro, vale la pena di evidenziare che pure il concetto di “persona giuridica” comincia a scricchiolare, considerata la quantità di abusi e frodi non solo fiscali che ha consentito di commettere, tanto che la robustezza del suo elemento fondamentale (i soci non pagano i debiti della società) è stata progressivamente (ma mai abbastanza) indebolita, ma questo è un altro discorso.
Competenza non implica conoscenza né consapevolezza
In secondo luogo, come spiega molto bene Daniel Dennet, filosofo ed epistemologo che si occupa da lunghissimo tempo di questi temi, esiste una differenza fra “competenza” e “comprensione”. Sarà anche banale, ma questo non rende meno vera e importante la constatazione che gli esseri viventi —compresi gli umani— non hanno per forza bisogno di “comprendere” qualcosa per “imparare” a farla. Senza voler tornare ai tempi del repetita juvant, in moltissimi ambiti, dall’addestramento militare, all’allenamento sportivo, all’utilizzo di attrezzi e macchinari, è un fatto che da un lato non serve (immediatamente) capire il “perché” le cose vanno fatte in un certo modo, e dall’altro che la comprensione del proprio operato può arrivare successivamente. Dunque, anche non aderendo a una visione meccanicista dell’esistenza, è innegabile che una macchina non abbia bisogno di “comprendere” per funzionare in modo intelligente. Ergo, il tema della responsabilità “autonoma” non rileva nemmeno come questione di principio perché al più, sempre per buttarla in filosofia, il ruolo della macchina nell’evento dannoso è solo quello di causa efficiente, meccanica, appunto, ma non certo volontaria o colposa— come richiesto dai fondamenti del diritto. Dovrebbe essere chiaro, a questo punto, che sarebbe ora di smettere di parlare di “responsabilità dell’AI” e iniziare a domandarsi quali sono quelle di chi la progetta, realizza e usa.
La responsabilità è del produttore, non del prodotto
Il primo tema, che Big Tech non ha alcun interesse a discutere, è quello ancora irrisolto della responsabilità dei produttori di software. A differenza di altri comparti industriali, lo sviluppo di software non è sottoposto alla responsabilità da prodotto perché i programmi sono considerati come la Divina Commedia: un’opera creativa. Il risultato è che, diversamente da quanto accade con un’automobile, un macchinario o un farmaco, chi sviluppa software non è tenuto ad adottare misure a tutela dell’incolumità della salute e dei diritti delle persone, ma solo a evitare una (peraltro improbabilissima) causa per danni. Se il software fosse un prodotto, dovrebbe garantire un adeguato livello di sicurezza e tutela per le persone —non per i dati, come invece ci si ostina a sostenere— e dunque se un programma come ChatGPT fosse un prodotto non adeguatamente sicuro non potrebbe essere messo a disposizione del pubblico.
Injury by Algorithm è un tema noto da almeno dieci anni
Il secondo tema è quello della responsabilità per i risultati derivanti dall’utilizzo del software. L’argomento dell’Injury by Algorithm è abbastanza vecchio. In Italia si pose già nel 2013 quando il Tribunale di Milano stabilì che Google non era responsabile per gli errori della funzionalità di autocompletamento delle interrogazioni che potevano avere carattere diffamatorio. Esclusa, all’epoca, per il motore di ricerca, a maggior ragione questa responsabilità non sussiste nel caso di ChatGPT per un motivo contingente e uno strutturale.
Il motivo contingente è che il software è ancora in versione di sviluppo e quindi, come tale, i suoi risultati non possono essere presi per buoni. Il motivo strutturale è che seppure ChatGPT fosse messo a disposizione in versione (provvisoriamente) stabile, i suoi risultati non potrebbero comunque essere presi per buoni proprio per il modo in cui funziona un’AI generativa. In altri termini, se un software produce risultati non necessariamente attendibili questi non possono essere “presi sul serio”, analogamente agli output forniti da un motore di ricerca che non necessariamente applica un “filtro di attendibilità”. Ci sarebbe inoltre da riflettere in nome di cosa sussisterebbe una responsabilità del prestatore di servizi come motori di ricerca o AI generative se la causa del danno sono l’ignoranza o la credulità dell’utente. Il che conduce, ancora una volta, al tema della responsabilità degli intermediari nella produzione automatizzata di risultati.
Il nodo è la neutralità del servizio
Questo argomento, il terzo, nell’ordine, è in discussione fin dai tempi delle BBS (in realtà BBS sarebbe maschile, ma fin dall’inizio in Italiano abbiamo sempre usato il femminile) quando c’era chi sosteneva la responsabilità del SysOp perché “non poteva non sapere” quello che gli altri utenti facevano tramite la board. Siamo, più o meno, fra la fine degli anni ‘80 e gli inizi dei ‘90 del secolo scorso. Nel corso del tempo il dibattito si è evoluto coinvolgendo i fornitori di accesso alla rete di trasporto, poi i servizi di condivisione di contenuti (forum e newsgroup, siti personali, blog e testate giornalistiche) e poi ancora i social network e altri tipi di servizi di piattaforma. Il punto fermo fu messo, nel 2000, dalla direttiva comunitaria sul commercio elettronico: l’intermediario non è responsabile di quello che accade tramite il proprio sistema se rimane estraneo al suo funzionamento, mentre perde questo scudo nel momento in cui interviene attivamente. La questione della responsabilità di Open AI (e non di ChatGPT) —quantomeno dal punto di vista del diritto comunitario— è puramente fattuale: il modo in cui funziona il servizio consente di sostenere che i risultati forniti dal software siano neutri rispetto all’intervento di chi lo ha progettato e lo fa funzionare? A seconda della risposta, le conseguenze possono essere (anche molto) diverse per le parti coinvolte, fermo restando che OpenAI non assume l’obbligo contrattuale di fornire risultati attendibili e non c’è un dovere giuridico di farlo. Come qualsiasi altro software, infatti, ChatGPT è messo a disposizione nelle condizioni di fatto e di diritto nelle quali si trova o, come dicono le licenze d’uso dei programmi, “as is”. Si dovrebbe quindi valutare se le limitazioni dichiarate sul sito in ordine al blocco di prompt che contengono termini suscettibili di produrre risultati offensivi o pericolosi costituisca una rinuncia alla neutralità del funzionamento della piattaforma di AI.
Serve una licenza GPL per i dati
Rimane da considerare, infine, la questione dell’asserito “abuso” dei dati utilizzati per l’addestramento del LLM. Il tema è quello tutelabilità di dati personali, genetici e di qualsiasi altro tipo in quanto suscettibili di utilizzazione economica e dunque qualificabili come “bene immateriale”. Non c’è bisogno di una norma specifica per attribuire “natura patrimoniale” ai dati. Se esiste un mercato per cui qualcuno è disposto a venderli e qualcun altro a comprarli, per ciò solo i dati hanno tutela giuridica a prescindere dal loro valore intrinseco. Nel caso, ancora una volta, dei motori di ricerca è passato il concetto che non si è tenuti a pagare per l’utilizzo dei contenuti liberamente messi a disposizione dai singoli utenti per costruire ed erogare il servizio, e chi non vuole che i propri contenuti siano indicizzati, ha la possibilità di fare in modo che questo accada. Nel caso di aziende che costruiscono AI, questo tema si declina domandado(si) se il sistema consentiva ai singoli utenti la possibilità di escludere l’uso di determinati contenuti con strumenti analoghi al noindex e al nofollow di Google.
Per fatti concludenti è possibile affermare che OpenAI non ha reso disponibile questa funzionalità, ma la domanda preliminare è chiedersi se avrebbe dovuto. La risposta coinvolge certamente aspetti giuridici: OpenAI, a differenza di Google, non è in una posizione preminente sul mercato (anche perché bisognerebbe prima capire di quale mercato stiamo parlando) e dunque non esercita un ruolo condizionante tale da richiedere limitazioni operative speciali. Ci sono tuttavia ma anche aspetti legati ai modelli industriali di Big Tech sempre più basati sul principio “meglio chiedere scusa che permesso” e a quelli della ricerca basata sui dati che per esempio in campo medico e scientifico, non è gestibile applicando criteri come quelli dettati della protezione dei dati personali. Dovremmo quindi chiederci se non sia il caso, per esempio, di prevedere o meno una qualche sorta di “uso libero” dei dati analogo a quello della licenza GPL quando la finalità del loro trattamento è quella di sperimentare e applicare i risultati della ricerca, a fronte dell’obbligo di rendere disponibile a chiunque e mettere a fattor comunque quello che si è raccolto.
Conclusioni
Come tutte le tecnologie, anche quella dell’AI pone delle questioni da affrontare in termini di bilanciamento di interessi e tutela delle persone. Giuridicamente, ed è una buona notizia, c’è poco di nuovo perché molte soluzioni ad apparenti “problemi” sono già disponibili. Tuttavia, ed è una cattiva notizia, c’è poco di nuovo anche nel modo in cui si svolge il dibattito pubblico sull’argomento, fondato com’è su ignoranza, superficialità e superstizione che portano il colto e l’inclita a venerare l’AI come un nuovo Glicone, il serpente di pezza creato ad arte da Alessandro di Abonutico, il ciarlatano che ai tempi della peste antonina prometteva guarigioni miracolose in nome del nuovo dio. La differenza con il passato è che nel caso di Glicone, Alessandro ha dovuto fare i salti mortali per convincere la gente di essere di fronte a una divinità, mentre nel caso di ChatGPT il pubblico ha fatto tutto da solo, e di questo non si può certo accusare OpenAI.
Possibly Related Posts:
- Dentro il G-Cans
- Chatbot troppo umani, i rischi che corriamo
- Qual è il significato geopolitico del sistema operativo Huawei Harmony OS Next
- TeamLab Planets: da Tokyo la fuga verso i mondi della mente
- Chi ci protegge dal dossieraggio tecnologico?