Ierti sera, su una primaria rete televisiva nazionale, è andato in onda uno spot che magnificava le capacità di guida (parcheggio, nel caso di specie) autonoma di una vettura.
Non ricordo la marca – il che dovrebbe dire molto sulla (in)efficacia di quella pubblicità – ma ricordo benissimo lo script: un tizio si cambia in macchina mentre quella parcheggia da sola, sotto gli occhi di una donna che guarda la scena (ma non si capisce quale) fra l’ammirato e l’incuriosito.
Banalità della sexploitation a parte, c’è un grave errore di fondo nel messaggio veicolato da questa pubblicità, e cioè che mentre la macchina sta funzionando si può fare altro, distraendosi dal controllo del mezzo.Al di la di qualsiasi considerazione, questo messaggio pubblicitario è semplicemente contrario al Codice della strada che impone al guidatore di avere sempre e comunque la padronanza della vettura. E il fatto che l’automobile abbia un certo grado di automatismo non legittima in alcun modo l’abbandono del timone, come ben sa la vittima dell’incidente mortale che, alla guida di una Tesla, guardava un film di Harry Potter invece di concentrare l’attenzione su quello che gli stava accadendo, considerato che le Tesla NON sono vetture a guida automona, ma assistita.
Ora, nel dibattito sulla “responsabilità etica dell’intelligenza artificiale che guida le vetture” bisognerebbe ricordare che:
a – gli automatismi servono per guidare in sicurezza e non per spingere una vettura a sfidare i limiti fisici del mezzo e dell’ambiente,
b – il conducente è il primo e unico responsabile del rispetto delle norme del Codice della strada,
c – l’obiettivo dei sistemi di sicurezza di un’automobile è, innanzi tutto, la protezione degli occupanti e solo in seconda battuta di pedoni o altri soggetti.
Questi concetti sono molto ben chiari – mi consta per conoscenza diretta – nella testa di chi progetta automobili e veicoli industriali. Ma lo sono – evidentemente – un po’ meno nella testa di chi approva scelte di comunicazione come quella di cui parlo in questo articolo. E che legittima una percezione distorta – oltre che illecita – di una funzionalità pur oggettivamente utile.
Possibly Related Posts:
- Webscraping e Dataset AI: se il fine è di interesse pubblico non c’è violazione di copyright
- ChatGPT non è onnisciente, ma OpenAI è vittima del proprio marketing
- Lo Human Genome Meeting di Roma riporta in primo piano la necessità di liberare l’uso dei dati
- Neuralink è l’anticamera della discriminazione tecnologica
- L’India compie un passo importante verso l’indipendenza tecnologica. Cosa cambia