Commentando questo post del prof. Francesco Pizzetti, scrivevo:
Caro Professore anche in ambito linguistico le macchine – come dimostra la Chinese Room di Searle – manipolano simboli.
L’articolo del Sole24 parte da un presupposto sbagliato e cioe’ – paradossalmente – un errore semantico sull’uso della parola “imparare”.
Le macchine non “imparano” nel senso che diamo alla parola riferita all’essere umano. Vengono istruite a compiere dei passaggi che – per definizione – sono espressione di chi li organizza.
Dunque, anche il concetto di “neutralità” dell’algoritmo è semplicemente sbagliato. Gli algoritmi, come qualsiasi espressione dell’essere umano, sono “parziali by default”.
Le cose sarebbero molto più chiare – e semplici – se evitassimo di antropomorfizzare le macchine. E dunque se usassimo, per descriverne il funzionamento, parole diverse da quelle che caratterizzano l’essere umano.
Ripeto quello che scrissi in un post qualche tempo fa: in Giapponese, esiste un verbo essere います (imasu) per gli esseri umani e uno あります (arimasu) per gli oggetti inanimati.
Possibly Related Posts:
- L’infodemia contagia anche gli Stati oltre agli utenti delle piattaforme social
- L’inconciliabile dilemma fra etica e guerra, che l’AI non può risolvere
- Dentro il G-Cans
- Chatbot troppo umani, i rischi che corriamo
- La sentenza TikTok e il futuro delle multinazionali cinesi high-tech. L’opinione di Monti