ChatGPT è l’ennesimo “trend” che, come blockchain, NFT e i loro derivati, scomparirà presto o tardi dai titoli dei giornali (e dalle qualifiche professionali degli “esperti”). Nel frattempo, si moltiplicano gli allarmi di millenaristi, luddisti, Canuti e catastrofisti che non perdono occasione per vaticinare sui “pericoli per la privacy”, su quelli per la perdita di posti di lavoro causati dall’uso dell’AI per produrre contenuti editoriali, studi e ricerche, e sul “bias” che porta l’AI a proferire “oracoli” inappropriati o non in linea con il politically correct. Non mancano, poi, gli eredi dei “pazienti” di Eliza, il software che negli anni ‘60 del secolo scorso emulava uno psicoterapeuta di scuola Rogeriana, che pongono a ChatGPT domande esistenziali stupendosi delle risposte e i “furbi” che ricorrono a piattaforme del genere spacciando per propri i risultati dell’elaborazione automatizzata (siano essi testi, immagini o suoni) di un tema di Andrea Monti – Inizialmente pubblicato su Strategikon – un blog di Italian Tech
Il tratto che accomuna questa composita schiera di utilizzatori è la convinzione intima e irrazionale che ChatGPT, superando il duck test, sia un “he” e non un “it” — un essere senziente e non un oggetto che presto o tardi si ribellerà contro di loro. Contribuisce certamente allo sviluppo di questa idea bislacca il fatto che l’interazione con piattaforme del genere avviene in modo più simile ad una conversazione che all’inserimento di dati grezzi in una barra di ricerca o nei campi di un database “deterministico”.
Fino a quando questa convinzione, frutto di ignoranza e superficialità, rimane confinata nell’ambito individuale e privato poco male. Non sarebbe la prima né l’ultima “fissa” ascientifica e superstiziosa a popolare le notti passate davanti al monitor per denunciare complotti e congiure a base di microchip, pianeti a geometria variabile e altre amenità. Tuttavia, quando intellettuali, politici e legislatori mostrano lo stesso approccio le conseguenze sono molto serie, come dimostra lo sconclusionato testo del futuro regolamento comunitario sull’intelligenza artificiale. Attendiamo con ansia il momento della fissazione per legge della velocità della luce, con tanto di sanzioni per il suo superamento.
Certamente l’implementazione di sistemi di AI può già produrre risultati che mettono a rischio posti di lavoro, automatizzano attività prima riservate a persone dotate di particolari abilità, o analizzano dati fornendo risultati in modo più immediatamente fruibile. Ma è veramente un problema? E quale dovrebbe essere?
È ovvio che la tecnologia cambia il mercato del lavoro e crea disoccupazione nei settori nei quali si diffonde. È successo, tanto per fare qualche esempio, con quella del vapore, che ha rivoluzionato il mondo dell’industria tessile con i telai Jacquard e quella del trasporto; con l’elettronica che ha reso possibile la costruzione di macchine a controllo numerico computerizzato (CNC) e via discorrendo. Tuttavia, nonostante le inevitabili ricadute negative nel breve periodo, nessuno ha seriamente pensato di bloccare l’utilizzo di nuovi strumenti per conservare posti di lavoro. Con questo approccio, se non si fossero estinti per altra ragione, saremmo ancora a caccia di dinosauri con lance e scuri fatte di legno e pietra.
Ma allora perché le applicazioni dell’AI fanno così paura (agli intellettuali)?
Una risposta sintetica è: perché dimostrano che il re è nudo, e che molto di quanto veniva presentato come il frutto di sensibilità, intuizione e capacità superiori può essere realizzato al prezzo di 15 dollari per cento prompt.
Una risposta più dettagliata richiede, invece, un ragionamento più articolato.
Fino ad ora lo sviluppo tecnologico aveva inciso per lo più su attività “manuali”, comunemente (ed erroneamente) associate a competenze non “creative”. Adesso, invece, è proprio il comparto dei lavori basati sul “pensiero” ad essere minacciato.
Improvvisamente, scrittori, artisti (“digitali”), fotografi, professionisti intellettuali e intellettuali di professione scoprono di non essere più indispensabili perché un oggetto è (potenzialmente) in grado di sostituirli. Dalla loro prospettiva questa è un’opzione inaccettabile perché l’uso dell’AI abbatte il valore economico degli “sforzi intellettuali” e degli “anni di studio” necessari a produrre risultati che però, troppo spesso, fanno alzare il sopracciglio quanto a qualità. In altri termini, categorie che si ritenevano intoccabili e intangibili dalle conseguenze dell’evoluzione tecnologica scoprono improvvisamente che anche il loro ruolo —e non soltanto quello di fabbri, falegnami e operai— può essere messo in discussione. Per “colpa dell’AI” ci saranno meno scrittori, giornalisti, artisti, avvocati, architetti e “lavoratori dell’intelletto”? Amen. Parafrasando la celeberrima battuta di Humphrey Bogart in Deadline, “È il progresso, bellezza. E tu non puoi farci nulla, nulla!”
In realtà, non c’è nulla di strano o inappropriato nell’affidarsi a questa tecnologia per estrarre informazioni, perché l’importante è essere in grado di capire il risultato. Chiunque nell’ambito della propria attività accademica o professionale debba fare un minimo di ricerca sa bene che la difficoltà non è tanto nel trovare materiale, ma nel selezionarlo e organizzarlo. Dunque, se uno strumento agevola queste attività ben venga. Tuttavia, avere un semilavorato non basta perché —e qui, è il caso di dire, casca l’asino— bisogna essere in grado di capire se i risultati prodotti dall’automazione hanno senso oppure no. L’uso di sistemi per estrarre e organizzare informazioni, in altri termini, non elimina la necessità di valutare criticamente gli output. Il che porta al secondo problema: quello delle conseguenze di ragionare in termini di scorciatoie.
È in corso, non solo in Italia, un dibattito abbastanza acceso sull’uso di ChatGPT da parte degli studenti. C’è chi lo considera un ausilio didattico al pari della calcolatrice e chi, invece, un pericoloso strumento che impoverisce le capacità degli studenti. Analogamente, nel mondo della ricerca si inizia a denunciare l’uso di piattaforme di AI per scrivere articoli scientifici fatti e finiti. Nel mondo della giustizia, dietro le dichiarazioni pubbliche sulla “giustizia predittiva” si nasconde il sogno inconfessabile che atti di avvocati e giudici siano integralmente scritti, al riparo del “pubblico sguardo”, da strumenti automatizzati. E alla via così.
Di fronte a questo scenario ci si dovrebbe chiedere cosa spinge una persona —uno studente, un ricercatore o un professionista— a sottrarsi al proprio dovere principale: imparare per migliorarsi e contribuire, così, a migliorare la società in cui vive. Cosa ha provocato questo diffuso disinteresse per la conoscenza che spinge a privilegiare un risultato di brevissimo periodo ottenuto in modo —questo sì— artificiale e inconsapevole invece di basarlo su una ampia e robusta base di conoscenza?
Non ci sono risposte semplici a una domanda del genere.
Si può ipotizzare che una causa sia il capitalismo dell’apparenza, dove basta sembrare competenti e non esserlo veramente, favoriti dalla compressione del tempo che impone di “deliverare” il messaggio il più in fretta possibile e generare “like” e gradimento. Tutto si consuma in pochi istanti: secondi o qualche minuto su Youtube, qualcosa in più —ma non troppo— sui media radiotelevisivi. Lo skipping è la bestia nera della produzione musicale: i pezzi non possono più avere introduzioni troppo lunghe perché chi li ascolta passa alla traccia successiva. Bisogna “agganciare” l’ascoltatore e quindi meglio usare un riff familiare (magari perché “liberamente ispirato” a pezzi famosi) che un’idea originale e dunque a rischio di essere ignorata.
La stessa logica distorta si è diffusa anche nella formazione. Non c’è tempo per insegnare, perché bisogna “chiudere il quarto” (quello didattico, non quello finanziario) e dunque occorre comprimere la frequenza e allungare il tempo: poche lezioni che durano, ciascuna, tanto. Come è possibile che uno studente possa metabolizzare la quantità di concetti che gli viene somministrata in questo modo? Quale metodo di studio avrà mai potuto sviluppare? Quali strumenti concettuali avrà imparato ad utilizzare?
Non stupisce che un approccio del genere sia praticato anche nel mondo del lavoro. La disponibilità di informazioni predigerite e omogeneizzate consente di improvvisarsi “esperto” o “competente” nei settori più disparati. Basta essere in grado di fornire risposte alle necessità degli interlocutori, a prescindere da come o da cosa siano state elaborate, e dalla reale capacità di comprendere quello che si sta facendo. Si pretende fare il soufflé seguendo bovinamente la ricetta scopiazzata da qualche parte. Fino a quando tutto va bene, tutto va bene. Poi capita che il soufflé si sgonfia e non si capisce il perché. È la stortura dell’affidarsi al precedente che impedisce di risolvere problemi nuovi, e che di fronte alla serie 2, 3, 5, 7 induce ad affermare convintamente che anche 9 è un numero primo.
In un contesto del genere, un contesto nel quale il sapere non ha più ruolo e valore, è chiaro che ChatGPT è manna dal cielo per chi opera in modo scorretto e truffaldino. Se è così, allora, il merito della diffusione delle piattaforme di AI è averci messo di fronte alla colossale ipocrisia dell’avere elevato all’altare la conoscenza come una divinità laica per poi, una volta conclusa la celebrazione, tornare nel tranquillizzante mondo della superstizione, dell’ignoranza e del fake it until you make it.
Tanto, al resto, ci pensa l’AI.
Possibly Related Posts:
- Chi ci protegge dal dossieraggio tecnologico?
- Webscraping e Dataset AI: se il fine è di interesse pubblico non c’è violazione di copyright
- Perché Apple ha ritirato la causa contro la società israeliana dietro lo spyware Pegasus?
- Le sanzioni UE ad Apple e Google aprono un altro fronte nella guerra contro Big Tech (e incrinano quello interno)
- La rottura tra Stati e big tech non è mai stata così forte