di Andrea Monti – Originariamente pubblicato su Strategikon – un blog di Italian.tech
La scarsità dei chip alla quale molti commentatori attribuiscono la responsabilità per la contrazione dei livelli produttivi di vari comparti – dall’IT all’autotrasporto – è un problema serio i cui effetti possono essere mitigati se le multinazionali IT decideranno di rivedere le loro strategie di gestione dell’obsolescenza dei propri prodotti e i governi adotteranno delle adeguate politiche dirette a riprendersi la sovranità tecnologica.
Rendere più longevi computer e periferiche ancora fisicamente funzionanti riduce la necessità di acquistarne di nuove e consente di “dirottare” la produzione di chip verso quei settori che ne hanno più necessità. Questa non è la panacea (difficilmente problemi complessi ammettono soluzioni semplici) ma sarebbe in ogni caso una scelta di responsabilità non solo nei confronti dell’industria ma soprattutto delle persone.
Hardware che funziona ancora benissimo e che sarebbe ampiamente sufficiente per le necessità personali e lavorative è messo fuori gioco non dalla “evoluzione tecnologica” ma dalla decisione consapevole e meditata di non aggiornare sistemi operativi (e di non consentire ad altri di farlo), di non rilasciare driver di periferica per continuare a utilizzare stampanti, scanner e altri oggetti connessi e di cessare il supporto a tecnologie software.
In qualche caso (moltissimi, in realtà) grazie a Linux e alla comunità opensource è possibile dare nuova vita a macchine che le strategie di marketing IT avevano condannato alla distruzione per inutilizzabilità. In altri, sfruttando la rigida gestione della proprietà intellettuale, quelli che non tantissimo tempo fa erano oggetti tecnologici “all’ultimo grido” sono diventati degli inutili complementi di arredo. Quando si spendono migliaia di Euro per un tablet o un laptop di “ultima generazione”, si dovrebbe quindi essere consapevoli che, se le cose non cambiano, nel giro di qualche anno quell’oggetto smetterà di essere riparabile, di funzionare, o di essere utilizzabile.
Per molto tempo, almeno fino alla metà del 2010 circa, la responsabilità dell’essere forzati ad aggiornare il proprio parco IT è stata addossata al “patto non scritto” fra produttori di hardware e grandi software house per cui al crescere della potenza di calcolo delle architetture, doveva crescere il “peso” dei sistemi operativi e dei software in modo da rendere sempre inevitabile l’acquisto di nuovi computer. La vulgata vuole che questa strategia tecnologica e commerciale fosse dovuta anche al cosiddetto wintel monopoly —l’accordo commerciale “di fatto” fra Intel e Microsoft— e che i suoi effetti siano stati superati grazie alla rinascita di Apple e al suo modo innovativo di progettare l’interazione fra hardware e software, ma in realtà questo non è corretto.
Per capire il ruolo delle scelte di progettazione e della gestione dell’incompatibilità come strategie commerciali e di come siano strutturali al comparto IT basta leggere il vecchio ma sempre attuale The Inmates are running the Asylum scritto da Alan Cooper (il “padre” del Visual Basic) nel 1999 e tradotto in Italiano —confesso il conflitto di interessi— da me con il titolo Il disagio tecnologico, oppure Bad Software pubblicato nel 1998 da Cem Kaner e David Pels. Inoltre, bisogna anche ricordare l’uso spregiudicato da parte del marketing IT della “Legge di Moore” sul rapporto fra durata e incremento della potenza dei processori ogni 18 mesi. Non è una legge, ma una considerazione empirica basata, ancora una volta, più su strategie produttive che su paradigmi scientifici.
Soprattutto, però, i primi responsabili di un problema che non è certo di oggi sono parlamenti e governi che sono rimasti sostanzialmente sordi (ne sono testimone diretto) agli appelli disperati della comunità opensource e di chi in tempi non sospetti si batteva per i diritti individuali nella comunicazione elettronica interattiva.
Se oggi abbiamo l’internet che conosciamo è perché il governo USA, all’epoca, decise di rendere il TCP/IP (l’insieme di protocolli che fanno funzionare la Rete) uno standard di pubblico dominio, imponendo che fosse utilizzato per comunicare con la pubblica amministrazione. Questo ne ha favorito l’utilizzo in ogni ambito e in ogni luogo e ha innescato una trasformazione i cui effetti sono ancora da misurare.
Almeno in Italia, invece, la pandemia ha dimostrato l’incredibile livello di dipendenza della pubblica amministrazione da tecnologie straniere: giustizia, scuola, sanità e – forse – difesa e sicurezza sono gestite con strumenti sui quali l’esecutivo non ha alcun reale controllo politico, giuridico e tecnologico.
Specie nell’ottica del gigantesco piano di trasformazione digitale per l’Italia dovremmo recuperare la lezione del TCP/IP e regolare l’uso delle tecnologie dell’informazione per garantire trasparenza e compatibilità. Le norme da approvare sono chiare: adozione generalizzata, senza alcuna eccezione, di formati e protocolli standard, messa in pubblico dominio tutti i software non più ufficialmente supportati, divieto di ogni pratica di obsolescenza programmata, garanzia del diritto alla riparabilità a prezzi e tempi accettabili almeno per la stessa durata imposta ai produttori di autoveicoli, consentire la costruzione di ricambi “non originali” e la liberalizzazione dei servizi di assistenza.
Non è impossibile, basta solo volerlo e la trasformazione digitale diventerà effettivamente un grande opportunità per il nostro Paese, invece che un modo per rimanere schiavi e aumentare ricchezza e potere dei signori della tecnologia.
Possibly Related Posts:
- Chi ci protegge dal dossieraggio tecnologico?
- Webscraping e Dataset AI: se il fine è di interesse pubblico non c’è violazione di copyright
- Perché Apple ha ritirato la causa contro la società israeliana dietro lo spyware Pegasus?
- Le sanzioni UE ad Apple e Google aprono un altro fronte nella guerra contro Big Tech (e incrinano quello interno)
- La rottura tra Stati e big tech non è mai stata così forte