La fine del 2016 e il 2017 sono (stati) qualificati come l’era della post-verità (cioè del fatto che qualsiasi fesseria venga scritta online, c’è sempre qualcuno che ci crede), con la croce per la “scomparsa del vero” buttata sulle spalle di Facebook e dell’industria delle telecomunicazioni. Il che si è tradotto nell’annuncio da parte dei politici italiani di un “giro di vite” sugli over-the-top (Facebook, appunto, ma anche Google, Twitter ecc.) invece che sugli untori digitali (la banda di ignoranti e analfabeti che scambiano il diritto alla libertà di parola per quello di parole in libertà e si sentono “legittimati” a scrivere qualsiasi bestialità).
Ma gli utenti ignoranti sono solo una parte del problema, perchè anche i mezzi di informazione producono sempre più spesso articoli poco informati, titolati in modo fuorviante e addirittura tecnicamente sbagliati.
I media “professionali”, quelli che storcono il naso di fronte alle rivendicazioni di chi, pur non essendo giornalista, “pretende” di fare informazione, veicolano con troppa frequenza informazioni imprecise, mal comprese o titolate in modo esagerato. E si comportano analogamente a quei “social networker” che senza approfondire, nella fretta di “postare” non controllano adeguatamente le fonti della loro “notizia”.
Prendiamo questo articolo pubblicato dall’edizione italiana di Huffington Post a firma di Elisabetta De Luca e partiamo dal titolo:
Nao, un robot in grado di divertire i bambini malati prima di un’operazione
Leggendolo, si pensa immediatamente al fatto che il motivo conduttore dell’articolo sia quello della costruzione di un robot per l’interazione con i bambini malati.
E invece no, perché leggendo il pezzo si scopre che il “personaggio” del pezzo è un infermiere che a preso una laurea (breve, ma l’articolo non lo dice) in Infermieristica Pediatrica,
con un progetto speciale: un robot umanoide in grado di interagire con i pazienti bambini e di calmarmi prima di essere sottoposti agli interventi.
Solo procedendo nella lettura si scopre che il tutto si è ridotto alla scrittura di un software, perchè, dice l’infermiere alla giornalista
Il robot che utilizziamo è il modello Nao, un umanoide, alto circa 60 cm, creato da un’azienda francese 10 anni fa.
Anche questa è un’informazione inaccurata. La Aldebaran Robotics – l’azienda franco-nipponica che ha inventato Nao e sulla quale ho fatto un reportage – ha realizzato ben cinque versioni del robottino. Diversamente da quanto suggerisce l’articolo, quello di Nao è un progetto vivo, vegeto e con grandi prospettive di evoluzione.
Ma andiamo oltre. Dichiara l’infermiere – e riporta la giornalista – che
Lo studio è stato portato avanti da maggio a luglio del 2016, analizzando le reazioni di 20 pazienti, ricoverati presso l’Azienda ospedaliera di Padova.
Tradotto: questo studio è privo di valore scientifico. L’indagine è di tipo qualitativo – non fondata su dati oggettivi – il campione è comunque troppo basso, le misurazioni delle reazioni emotive sono praticamente impossibili oltre che condizionate dalle percezioni del “misuratore”.
Conclusione: l’articolo di Elisabetta De Luca è fortemente discutibile perché attribuisce – o lascia percepire che esista – una patente di scientificità in quella che, nella migliore delle ipotesi, è una raccolta empirica di casi individuali e non correlati.
Passiamo ora ad un altro esempio: la notizia del procedimento aperto in USA nei confronti di FCA (ex Fiat) per un presunto mancato rispetto dei limiti di emissioni inquinanti di alcuni motori diesel. Se ne occupa Giuliano Balestreri su Business Insider Italia che titola:
Marchionne dribbla il dieselgate saltando sul carro di Trump
Il titolo afferma due cose: che FCA abbia truccato le prestazioni inquinanti dei propri motori come Volkswagen e che per “cavarsela” Marchionne spera in un supporto politico della nuova amministrazione.
In realtà Balestreri, nel corpo dell’articolo, riporta le dichiarazioni di Marchionne che chiariscono le differenze fra la vicenda Volkswagen e quanto attribuito a FCA, così consentendo al lettore di farsi un’idea. Ma omette di evidenziare un fatto fondamentale: al momento, nei confronti di FCA c’è soltanto un procedimento, il cui esito negativo è tutt’altro che scontato.
Rimane tuttavia l’impatto della seconda parte del titolo: che FCA voglia “dribblare” ( cioè evitare con azioni fuorvianti) le conseguenze di un gesto (quale?) puntando a “scorciatoie” politiche invece di dimostrare la propria innocenza nel merito.
Anche l’uso della parola “dieselgate” si presta a qualche critica perché riportare una notizia inducendo – anche solo nel titolo – che pure FCA sia coinvolta in un caso di alterazione di software per il controllo delle emissioni (questo è il significato del termine) è, nella migliore delle ipotesi, non corrispondente al fatto storico attuale.
A parte che nessuno più ricorda l’origine del termine – risalente al caso Watergate – che si riferiva ad attività di spionaggio politico abusivo e che niente ha a che vedere con i fatti di oggi, l’uso della parola “dieselgate” che contraddistingue la condotta fraudolenta imputata a Volkswagen provoca un’associazione diretta e immediata di “comportamento illecito” anche a carico di FCA, prima ancora che ci siano fatti oggettivi sui quali discutere.
Questi sono solo due esempi di come la “post-verità” o, più semplicemente, le logiche dell’informazione online siano fonte di notizie riportate o interpretate in modo non corretto anche sui “media professionali”.
Con la differenza che quando si scrivono bufale su un social network non succede granché, ma quando si riportano o interpretano in modo non sufficientemente rigoroso delle notizie sui mezzi di informazione, si provocano danni.
Per coerenza, dunque, il ministro Orlando che si preoccupa delle bufale sui social network dovrebbe invocare controlli anche su giornali e televisione che, per loro natura, hanno una efficacia persuasiva certamente maggiore del tweet di uno sconosciuto.
Ma questo, ovviamente, non si può fare. L’Italia è un paese democratico, no?
Possibly Related Posts:
- Chi ci protegge dal dossieraggio tecnologico?
- Webscraping e Dataset AI: se il fine è di interesse pubblico non c’è violazione di copyright
- Perché Apple ha ritirato la causa contro la società israeliana dietro lo spyware Pegasus?
- Le sanzioni UE ad Apple e Google aprono un altro fronte nella guerra contro Big Tech (e incrinano quello interno)
- La rottura tra Stati e big tech non è mai stata così forte