Sempre più spesso media e osservatori casuali del fenomeno AI si riferiscono ai risultati ottenuti tramite questi strumenti come se fossero il prodotto di una volontà autonoma. L’ultimo caso in ordine di tempo è quello di ChatGPT, un noiosissimo processore di linguaggio naturale utilizzato da curiosi e millenaristi per ottenere risposte a domande epocali, manco fosse una Pizia o l’Oracolo di Delfi. Inevitabili le reazioni scandalizzate dal fatto che in passato un chatbot “avesse un’opinione” eretica sulle responsabilità di tragedie epocali come il nazismo e quelle autotranquillizzanti sul fatto che ora non è più così. Sullo sfondo, le preoccupazioni, oramai diventate un luogo comune, sull’AI che un giorno dominerà gli esseri umani se non viene fermata in tempo con “leggi speciali” di Andrea Monti – Inizialmente pubblicato su Strategikon – un blog di Italian Tech
Tuttavia, con buona pace di chi si ostina a vivere l’illusione di abitare negli Abissi d’acciaio, magari in compagnia dell’Uomo Bicentenario e di un Replicante, Dall-e, Stable Diffusion, ChatGPT e tutte le variazioni sul tema sono soltanto scalpelli, colori e pennelli più sofisticati e questo rimangono: strumenti. Non hanno “coscienza”, “consapevolezza” e “libero arbitrio” ma funzionano, contrariamente alla vulgata, secondo decisione e volontà di chi li ha costruiti. Dunque, Dall-e non può essere usato per generare determinati contenuti o programmato per interpretare determinati vocaboli. La versione 2.0 di Stable Diffusion è stata limitata per via di rivendicazioni legali dei titolari di diritti d’autore, preoccupati della (presunta) facilità di produrre contenuti “simili” a quelli protetti. ChatGPT fornisce risposte ponziopilatesche di natura essenzialmente compilativa perché così è stato —dichiaramente— “addestrato” per evitare controversie.
Il fatto che questi software funzionino con un notevole grado di autonomia operativa producendo risultati “intelligenti” non è una novità. Qualsiasi manufatto è “intelligente” perché è progettato e costruito per esserlo. Per capirlo basta leggere le semplici e immortali parole che Bruno Munari dedicò al progettare in “Da cosa nasce cosa”. Una forchetta non è meno “intelligente” di una piattaforma di AI; anzi, lo è sicuramente di più, perché a differenza di un AI raggiunge efficacemente lo scopo per il quale è stata costruita e a costi decisamente inferiori. A differenza della forchetta, l’AI può funzionare in modo autonomo, ma ciò non vuol dire —ed e questo il punto— che da “oggetto” diventa “soggetto”, come invece accade utilizzando impropriamente il “da” al posto del “con”.
“Fatto da” e “fatto con” sono due concetti radicalmente diversi: il primo descrive un’azione umana, mentre il secondo si utilizza in relazione agli strumenti. La Pietà è scolpita “da” Michelangelo “con” martelli e scalpelli. L’Ultima cena è dipinta “da” Leonardo “con” pennelli e colori. I Promessi sposi sono scritti “da” Alessandro Manzoni “con” carta e penna. La striscia sulle vicissitudini di un’AI è fatta “da” me “con” Dall-e.
Utilizzare il “da” al posto del “con” quando si parla di text-to-image, chatbot o generatori di musiche e suoni basati su AI è tecnicamente sbagliato e dunque falso, e come insegna la logica classica, ex falso, quodlibet —da una falsità di può dedurre qualsiasi conclusione. Dire che un suono, un’immagine o un testo sono fatti “da” un software implica il rischio —in realtà la certezza, considerando le posizioni espresse da legislatori ed esperti— di confondere il creatore di un’espressione intellettuale con gli strumenti che usa e dunque di considerare lo strumento come un “soggetto” titolare di “volontà” autonoma e “diritti”. C’è poi, nell’utilizzo del “da”, il desiderio più o meno inespresso di controllare il démone tramite “esorcismi tecnologici” che trasmettono la percezione di essere detentori di una conoscenza esoterica superiore, quando alla fin fine tutto quello che si è fatto è stato scrivere del testo in un form e premere un bottone.
Utilizzare il “con” rimette invece in ordine le cose perché rispetta ruoli e —soprattutto— responsabilità, facendo giustizia delle presunte “questioni giuridiche” in realtà altrettanto inesistenti della “soggettività dell’AI”. Un text-to-image o un chatbot non “sono” i “titolari” del diritto d’autore sui risultati che, come strumenti, hanno prodotto. Allo stesso modo, una piattaforma che gestisce la sicurezza di un veicolo non è “responsabile” delle “scelte” perché il cerino rimane sempre e comunque nelle mani di chi la ha progettata, costruita e implementata. E, prevenendo l’obiezione, se non è possibile controllare il modo in cui questa piattaforma funziona, allora molto semplicemente non la si dovrebbe usare.
Dalla (apparentemente) irrilevante differenza nell’uso del “da” e del “con” arriviamo dunque alla reale natura del problema che affligge la diffusione dell’AI: il tentativo di deresponsabilizzre chi la costruisce per le conseguenze e per i danni causati dal prodotto. Radica(lizz)are la convinzione che le cose sono fatte “da” un’AI e non “con” un’AI significa togliere il peso della responsabilità dalle spalle di chi lo dovrebbe sopportare per scaricarlo su un oggetto inanimato che, in quanto tale, non può avere volontà, colpa ma, soprattutto, diritti.
Possibly Related Posts:
- Chatbot troppo umani, i rischi che corriamo
- TeamLab Planets: da Tokyo la fuga verso i mondi della mente
- Chi ci protegge dal dossieraggio tecnologico?
- Webscraping e Dataset AI: se il fine è di interesse pubblico non c’è violazione di copyright
- Perché Apple ha ritirato la causa contro la società israeliana dietro lo spyware Pegasus?