Come combattere le fake news

Uno studio mette a confronto diversi approcci, tra cui gli incentivi economici, per "vaccinarsi" contro la disinformazione.

Fanatic Studio/Gary Waters/SPL

Veloce come un virus, e potenzialmente altrettanto devastante. Per il dilagare di notizie false, parzialmente vere o verosimili durante la pandemia di Covid-19, è stata coniata la definizione di infodemia. Anche la sola mole di informazioni, spesso contrastanti, a disposizione in rete, ha secondo alcuni studiosi del fenomeno contribuito a far aumentare il rumore di fondo, e a disorientare l’opinione pubblica. Si tratta in realtà di un fenomeno che esiste da tempo, ma la cui diffusione sembra essere stata velocizzata dall’avvento dei social media. Quel che pare ormai certo è che informazioni sbagliate che diventano virali possono contribuire a influenzare il dibattito pubblico e le decisioni politiche su temi sociali rilevanti, come i vaccini, il cambiamento climatico, le politiche sanitarie e sociali.
Molto meno chiaro è come intervenire sul fenomeno per mitigarlo, e come mettere le persone in grado di riconoscere la disinformazione e difendersene. Uno studio pubblicato di recente sulla rivista Scientific Reports ha testato diversi approcci per incentivare gli utenti dei social media a prestare maggiore attenzione ai contenuti prima di condividerli. Ne abbiamo parlato con Folco Panizza, ricercatore della Scuola IMT Alti Studi Lucca, e tra gli autori della ricerca. 

Innanzitutto, che cosa si sa di quanto è diffuso il fenomeno della disinformazione scientifica?

In Italia purtroppo ci sono pochi dati, a differenza che in altri paesi come Stati Uniti, Canada, Australia e Regno Unito su cui esistono già diversi studi. Anche riguardo all’estensione e alla rilevanza del problema c’è al momento un acceso dibattito tra gli esperti. C’è chi afferma che sia un fenomeno gonfiato e strumentalizzato da alcune parti politiche, con uno scarso impatto nella realtà. Mentre una fetta importante dei ricercatori la pensa in maniera opposta. Misurando il traffico di informazioni, si vede che in effetti la maggior parte dei contenuti diffusi online da fonti di informazione non è fuorviante o falsa. Ma è anche vero che la maggior parte dei contenuti viene monitorata pochissimo: si tratta di contenuti personali, in gergo tecnico User Generated Content. Questi contenuti sono spesso interessanti, emozionali, sorprendenti, facili da comprendere e possono celare disinformazione. Non abbiamo quindi i numeri per quantificare la diffusione di disinformazione, con il rischio che contenuti possano diventare virali in maniera indisturbata. In sostanza, anche un piccolo nocciolo di falsità può generare un impatto enorme. Ciò accade anche e soprattutto quando si parla di disinformazione scientifica, sia a causa di una carenza di competenze generali nella popolazione per distinguere tra contenuti scientifici e pseudoscientifici, sia della grande richiesta di informazioni su salute e ambiente, temi su cui c’è spesso un coinvolgimento personale.

Quali approcci vengono utilizzati per studiare il fenomeno della disinformazione?

Una delle premesse, che costituiscono una difficoltà di partenza, è che salvo alcune eccezioni manca la possibilità di collaborare con le piattaforme di social media per avere accesso ai dati. L’altra difficoltà è la mancanza di trasparenza delle piattaforme sul loro funzionamento. Per cui si cerca di trovare delle vie alternative per studiare il fenomeno. Una è studiare il comportamento degli utenti attraverso interviste e bot, strumenti che ci forniscono però una visione parziale della realtà. L’altra è di cercare di ricreare dei contesti paralleli ai social media, conducendo degli esperimenti in un ambiente controllato.

E che indicazioni dà la ricerca su come intervenire per cercare di risolvere il problema?

Uno degli interventi più comuni è il debunking, ovvero come correggere le false credenze derivate da disinformazione. Negli anni si è sviluppata una corposa letteratura su come funziona a livello mentale questo approccio. Il problema è che il debunking è svantaggiato in partenza, perché arriva dopo l’esposizione all’informazione “falsa”, cercando di correggerla. Insomma rincorre il problema, e la sua applicazione è limitata a particolari contesti.
Questo ha spinto a cercare metodi diversi, provando ad anticipare e prevenire. Alcuni di questi interventi sono basati sullo stimolare l’utente dei social media a concentrarsi, facendogli prestare attenzione ai contenuti con degli input visivi o testuali che ricordano all’utente di stare attento.
Un altro approccio è quello dell’alfabetizzazione (o literacy) digitale. Consiste nello spiegare agli utenti alcuni “trucchetti del mestiere” molto facili e veloci per poter valutare un contenuto sui media, e viene considerato di grande efficacia.
Un altro esempio ancora è quello definito inoculation. Questa tipologia di intervento si basa sul “vaccinare” gli utenti contro contenuti disinformativi, esponendoli più volte a contenuti con queste caratteristiche, che si possono imparare a riconoscere. Non è chiaro però se questo genere di inoculazione, proprio come nel caso dei vaccini, abbia bisogno di “richiami”.

Folco Panizza, ricercatore del comportamento e delle decisioni pro-sociali alla Scuola IMT

Ci può descrivere la vostra ricerca?

Nel nostro studio abbiamo testato due tipologie di interventi per combattere la disinformazione scientifica. L’approccio principale è stato quello della literacy. Sfruttando precedenti ricerche che hanno identificato una serie di strategie usate dai fact-checkers, cioè da chi verifica per professione la veridicità di notizie e informazioni, abbiamo ottenuto una piccola lista di suggerimenti facilmente fruibili. Sono strategie che sfruttiamo tutti i giorni anche se non ce ne rendiamo conto, legate ad esempio a come utilizzare i motori di ricerca. L’errore fondamentale di fronte a un nuovo contenuto di cui non conosciamo la fonte o altre informazioni è che ci lasciamo molto abbindolare dall’apparenza. La maniera più efficace per valutarlo è invece di ignorare completamente il sito che ce lo propone, e andare a cercare informazioni altrove. Anziché prediligere una lettura “verticale” all’interno del contenuto stesso, si dovrebbero aprire più pagine (o più schede nel proprio browser) per cercare altre voci con una lettura “orizzontale”, guardando l’informazione da diversi punti di vista. Il secondo approccio riguarda invece l’utilizzo di incentivi, in questo caso monetari. Abbiamo cercato di stimolare una maggiore presa di coscienza sul contenuto, facendolo valutare con più attenzione, ricompensando le risposte corrette. Questi incentivi sono risultati essere molto efficaci. L’idea di poter essere ricompensati per poter valutare correttamente un contenuto aumenta significativamente l’accuratezza del giudizio. Fornire le strategie sembra invece avere un effetto solo nel caso in cui non si è familiari con la fonte. Non perché le strategie non funzionino, ma perché fornirle in questa forma condensata potrebbe portare a ignorarle, dato che spesso pensiamo di saperne di più o le riteniamo una perdita di tempo. Entrambi questi interventi funzionano, anche se convincere gli utenti a prestare maggiore attenzione e a cercare maggiori informazioni non è così facile.

Che implicazioni possono avere questi risultati per le politiche dei social media e dei mezzi di informazione?

Se potessimo riproporre questi esperimenti in contesti reali grazie a un dialogo con le piattaforme, sarebbe possibile fornire agli utenti queste informazioni con strumenti facilmente implementabili, come pop-up che appaiono quando si cerca di condividere un contenuto. Purtroppo, le aziende che gestiscono i social media non sono incentivate a testare questo tipo di interventi, anche se nell’Unione Europea ci sono già alcune politiche e la predisposizione ad ascoltare alcuni ricercatori. Gli incentivi proposti potrebbero essere usati in attività di debunking, reclutando e ricompensando gli utenti stessi per valutare l’informazione, attività che risulta in molti casi efficace. Noi stiamo conducendo ulteriori ricerche su altri tipi di incentivi non monetari. Ad esempio, funziona efficacemente sfidare l’utente a identificare le informazioni con dei giochi, simili a quelli che paradossalmente propongono sui social media i malintenzionati che tentano di acquisire le nostre informazioni personali.

Marco Maria Grande

Potrebbero interessarti anche

SocietàTecnologia e Innovazione

Intelligenze artificiali, errori umani

Quando l’AI sbaglia: perché accade, e come evitarlo.

SocietàTecnologia e Innovazione

Se ci estingueremo, non sarà colpa di ChatGPT

Una riflessione sui rischi veri e presunti dell’intelligenza artificiale.

Società

L’opinione della maggioranza contro le fake news

Gli utenti dei social media “ascoltano” le valutazioni degli altri, anche se dicono di no.

Società

Una cassetta degli attrezzi per combattere la disinformazione

Concepita come una guida “aperta”, individua gli strumenti più efficaci a seconda del contesto.