Commentando questo post del prof. Francesco Pizzetti, scrivevo:
Caro Professore anche in ambito linguistico le macchine – come dimostra la Chinese Room di Searle – manipolano simboli.
L’articolo del Sole24 parte da un presupposto sbagliato e cioe’ – paradossalmente – un errore semantico sull’uso della parola “imparare”.
Le macchine non “imparano” nel senso che diamo alla parola riferita all’essere umano. Vengono istruite a compiere dei passaggi che – per definizione – sono espressione di chi li organizza.
Dunque, anche il concetto di “neutralità” dell’algoritmo è semplicemente sbagliato. Gli algoritmi, come qualsiasi espressione dell’essere umano, sono “parziali by default”.
Le cose sarebbero molto più chiare – e semplici – se evitassimo di antropomorfizzare le macchine. E dunque se usassimo, per descriverne il funzionamento, parole diverse da quelle che caratterizzano l’essere umano.
Ripeto quello che scrissi in un post qualche tempo fa: in Giapponese, esiste un verbo essere います (imasu) per gli esseri umani e uno あります (arimasu) per gli oggetti inanimati.
Possibly Related Posts:
- Il microprocessore da un nanometro che può cambiare tutto nella sfida tecnologica tra Usa e Cina
- Come lo Streptococcus salivarius può aiutarci a combattere i danni degli zuccheri
- Perché la UE è destinata a perdere la guerra dei dazi tecnologici
- Un’assenza nello zainetto Ue per sopravvivere in caso di guerra lo rende di fatto inutile
- Dazi USA e Big Tech: inutile piangere sul digitale versato