Commentando questo post del prof. Francesco Pizzetti, scrivevo:
Caro Professore anche in ambito linguistico le macchine – come dimostra la Chinese Room di Searle – manipolano simboli.
L’articolo del Sole24 parte da un presupposto sbagliato e cioe’ – paradossalmente – un errore semantico sull’uso della parola “imparare”.
Le macchine non “imparano” nel senso che diamo alla parola riferita all’essere umano. Vengono istruite a compiere dei passaggi che – per definizione – sono espressione di chi li organizza.
Dunque, anche il concetto di “neutralità” dell’algoritmo è semplicemente sbagliato. Gli algoritmi, come qualsiasi espressione dell’essere umano, sono “parziali by default”.
Le cose sarebbero molto più chiare – e semplici – se evitassimo di antropomorfizzare le macchine. E dunque se usassimo, per descriverne il funzionamento, parole diverse da quelle che caratterizzano l’essere umano.
Ripeto quello che scrissi in un post qualche tempo fa: in Giapponese, esiste un verbo essere います (imasu) per gli esseri umani e uno あります (arimasu) per gli oggetti inanimati.
Possibly Related Posts:
- Chi ci protegge dal dossieraggio tecnologico?
- Webscraping e Dataset AI: se il fine è di interesse pubblico non c’è violazione di copyright
- Perché Apple ha ritirato la causa contro la società israeliana dietro lo spyware Pegasus?
- Le sanzioni UE ad Apple e Google aprono un altro fronte nella guerra contro Big Tech (e incrinano quello interno)
- La rottura tra Stati e big tech non è mai stata così forte