Riflettendo su Linkedin con il prof. Alessandro Cortesi a proposito di unarticolo divulgativo sulla “intelligenza artificiale” è emerso uno degli errori logici che caratterizzano sistematicamente la retorica degli “esperti” di settore: il post hoc, ergo propter hoc.
Nella sostanza, l’articolo cade in un classico errore di invertire l’effetto con la causa o – più precisamente – individuare un nesso di causalità dove, al più, c’è una semplice successione cronologica di eventi.
Nel caso specifico, l’articolo in questione elenca come progressi dell’intelligenza artificiale il fatto che un computer possa battere un umano a scacchi o condurre in modo (più o meno autonomo) una vettura.
Ma il fatto che un computer possa fare queste cose non significa che il computer sia “intelligente” o “pensi”, non piu’ di quanto un braccio meccanico che esegue una saldatura sia consapevole di quello che sta facendo.
Sostenere che eseguire un compito – non importa quanto complesso – meglio di quanto farebbe un essere vivente non implica elevare la macchina al rango di uomo, ma degradare l’uomo al rango di macchina.
Possibly Related Posts:
- Chatbot troppo umani, i rischi che corriamo
- Webscraping e Dataset AI: se il fine è di interesse pubblico non c’è violazione di copyright
- ChatGPT non è onnisciente, ma OpenAI è vittima del proprio marketing
- Lo Human Genome Meeting di Roma riporta in primo piano la necessità di liberare l’uso dei dati
- Neuralink è l’anticamera della discriminazione tecnologica