L’inconciliabile dilemma fra etica e guerra, che l’AI non può risolvere

Il dibattito pubblico sull’uso dell’AI è condizionato da una “deriva etica” che sacrifica il ruolo del confronto democratico, nega la pluralità della politica e lascia nelle mani di pochi il potere di compiere scelte fondamentali di Andrea Monti – Inizialmente pubblicato su La Repubblica – Italian Tech

Perché dovremmo preoccuparci di un “uso etico” nella bellica dell’AI e non mettere in discussione realmente e non solo sulla carta, sullo stesso presupposto, l’uso di strumenti “tradizionali” come le bombe al fosforo bianco, le mine antiuomo (il cui divieto di uso viene largamente ignorato) o munizioni ad espansione in grado di provocare danni irreparabili al corpo umano invece di “limitarsi” ad attraversarlo? E perché l’autonomia (reale o presunta) di un sistema d’arma controllato da un’AI dovrebbe essere più pericolosa di un bombardamento a tappeto o dello sgancio di un ordigno nucleare?

Infine, quando si parla di etica dell’AI applicata ai conflitti (e non solo), la prima cosa che ci si dovrebbe chiedere è: l’etica di chi? E perché dovrebbe essere preferita quella espressa da una certa visione del mondo e non un’altra? Ma soprattutto e venendo al punto: in nome di cosa uno Stato dovrebbe essere “etico” in guerra?

Le parole definitive sull’argomento sono state pronunciate in tempi non sospetti, alla fine dell’ottocento, da due giganti della dottrina militare, Carl von Clausewitz e Helmut von Moltke.

Il primo scrisse nel 1832 che “le persone di buon cuore potrebbero ovviamente pensare che esista un modo ingegnoso per disarmare o sconfiggere un nemico senza troppi spargimenti di sangue e potrebbero immaginare che questo sia il vero obiettivo dell’arte della guerra. Per quanto possa sembrare piacevole, si tratta di una convinzione errata da smascherare; la guerra è un’attività talmente pericolosa che gli errori che derivano dalla gentilezza sono i peggiori” mentre il secondo, nel 1861, rincarò la dose affermando che “la più grande gentilezza che si può fare in guerra è farla terminare rapidamente”.

 Se, dunque, il dibattito sull’etica dell’AI è, in generale, alquanto preoccupante, lo diventa ancora di più quando lo si estende ai conflitti più o meno formalmente dichiarati perché si basa su un presupposto filosofico fattualmente non corretto: l’esistenza di valori universali che, dunque, sarebbero applicabili in modo trasversale e al di sopra dei singoli ordinamenti giuridici. Questo universalismo è lo stesso presupposto, questa volta applicato in ambito politico, che ha portato ha costruire a tavolino la categoria artificiale dei “diritti universali”. Entrambi gli approcci sono basati su un approccio monoteistico, in base al quale esistono solo “certi” valori e “certi” diritti e dunque hanno poco a che fare con la dimensione democratica che si è formata dopo la rivoluzione francese, nella quale l’etica (e la religione) sono fuori dallo Stato e le regole —le leggi— sono il frutto della mediazione politica di valori contrapposti, che vengono adattati allo spirito del tempo e alle mutate condizioni (e convinzioni sociali) dall’attività della magistratura. Al contrario, professare “valori” e “diritti” assoluti è una caratteristica geografica, temporale e culturale che non appartiene a una visione laica —ma soprattutto pragmatica—della realtà dove, piaccia o non piaccia, le riflessioni basate sul realismo politico hanno messo in un angolo quelle etiche teorizzate ai tempi da Grozio e poi da Kant ispirate a una qualche forma di legge superiore, anche di tipo etico, come limite all’agire dello Stato.

La dottrina strategica statunitense ha coniato un termine specifico per descrivere questo approccio: lawfare—l’uso del diritto come arma dell’arsenale geopolitico, anche se la formalizzazione del ragionamento risale, in realtà, ai tempi di Tucidide.

Nella parte de La guerra del Peloponneso dedicata all’irrigidirsi della tensione fra Atene e Sparta, spicca il dialogo fra gli ambasciatori ateniesi e i Melii. I primi applicavano senza mezzi termini quella che Otto von Bismarck avrebbe poi chiamato machtpolitik —la politica della forza— mentre i secondi si appellavano alle ragioni del diritto; ed ecco come è andata a finire: “Pretendiamo invece che si mandi ad effetto” dicono gli ambasciatori ateniesi mentre in rada la flotta che li aveva accompagnati non ispirava esattamente sentimenti di fratellanza e democrazia “ciò che è possibile a seconda della reale convinzione che ha ciascuno di noi, ché noi siamo certi, di fronte a voi, persone informate, che nelle considerazioni umane il diritto è riconosciuto in seguito a una uguale necessità per le due parti, mentre chi è più forte fa quello che può e chi è più debole cede. … Noi crediamo infatti che per legge di natura chi è più forte comandi: che questo lo faccia la divinità lo crediamo per convinzione, che lo facciano gli uomini, lo crediamo perché è evidente. E ci serviamo di questa legge senza averla istituita noi per primi, ma perché l’abbiamo ricevuta già esistente e la lasceremo valida per tutta l’eternità, certi che voi e altri vi sareste comportati nello stesso modo se vi foste trovati padroni della nostra stessa potenza.”

Ora, tornando al tema dell’uso bellico (ma no solo) dell’AI e concludendo il ragionamento, è abbastanza chiaro che nessuno Stato può accettare o correre il rischio di trovarsi in una inferiorità strategica e tattica e dunque cerca di massimizzare il proprio apparato offensivo e difensivo (posto che esista la differenza, ma questo è un altro discorso). Ed è altrettanto chiaro, come dimostrano le scelte in materia di deterrenza nucleare, quale sia l’equivoco che sta alla base dell’intero discorso sull’etica dell’AI: non sono le tecnologie, ma chi le controlla a doversi dare (o a dover subire) dei limiti sull’utilizzo. Applicando lo stesso ragionamento dei sostenitori dell’etica dell’AI alle armi atomiche, si arriverebbe al paradosso di chiedere che la prossima volta Little Boy (la bomba sganciata su Hiroshima) tenga fede al suo nomignolo e faccia stragi sì, ma non troppo estese, anche se questo obiettivo è alquanto inconciliabile con il principio ingenuamente stabilito con la Dichiarazione dell’Aja nel 1899 in base alla quale gli Stati concordano che “l’unico obiettivo legittimo che gli Stati dovrebbero cercare di raggiungere durante una guerra è indebolire le forze militari del nemico; che a questo scopo è sufficiente rendere inabile il maggior numero possibile di uomini; che questo obiettivo sarebbe superato dall’impiego di armi che aggravano inutilmente le sofferenze degli uomini inabili, o rendono inevitabile la loro morte; che l’impiego di tali armi sarebbe, quindi, contrario alle leggi dell’umanità.”

Il tema reale, dunque, non è lo sviluppo di una tecnologia ma la responsabilità individuale di chi, di fatto o di diritto, ha il potere di controllarla, e il ruolo dei cittadini come guardiani del potere.

Pensare di costruire una – qualsiasi cosa sia – “etica dell’AI” significa aprire la strada alla deresponsabilizzazione umana, civile e politica per l’assunzione di scelte che possono incidere drammaticamente e irrimediabilmente sulla vita di ciascuno di noi e sulla società come (ancora) la conosciamo. Oppure, peggio, significa affidare la scelta a un numero ristretto di persone, senza alcuna responsabilità e senza dibattito pubblico, tanto, qualsiasi cosa succederà, sarà colpa del computer, anzi, dell’intelligenza artificiale.

1) The only legitimate object which States should endeavour to accomplish during war is to weaken the military forces of the enemy; that for this purpose it is sufficient to disable the greatest possible number of men; that this object would be exceeded by the employment of arms which uselessly aggravate the sufferings of disabled men, or render their death inevitable; that the employment of such arms would, therefore, be contrary to the laws of humanity – La traduzione dall’inglese non è ufficiale.

Possibly Related Posts: