Il 7 gennaio 2025, Meta ha annunciato la fine del programma di fact checking per la moderazione dei contenuti su Facebook, Instagram e Threads. Il programma si basa sulla collaborazione con organizzazioni di verifica indipendenti (certificate dall’International Fact Checking Network, IFCN), incaricate di analizzare i contenuti pubblicati sulle piattaforme Meta, con l’obiettivo di contenere la diffusione di disinformazione: se un post è valutato come falso o fuorviante, la visibilità del contenuto si riduce e gli utenti ricevono un avviso che li mette in allerta.
In un video pubblicato sul proprio canale ufficiale, Mark Zuckerberg ha dichiarato che, in futuro, l’azienda si ispirerà al modello delle “Community Notes” di X (ex Twitter), dapprima negli Stati Uniti e successivamente su scala globale. Secondo Zuckerberg, si intende “tornare alle radici” e concentrarsi sulla semplificazione delle policy, sulla riduzione degli errori e sul ripristino della libertà di espressione. Durante l’annuncio, Zuckerberg ha fatto riferimento al nuovo mandato presidenziale per Donald Trump, sottolineando l’esigenza di dare priorità alla libertà di parola.
Fino a questo momento, Meta si avvaleva di fact-checker indipendenti per confermare l’accuratezza delle notizie, consultando fonti originali e dati pubblici. La nuova strategia prevede di sostituire i fact-checker con un sistema simile alle note collettive di X, basato sul crowdsourcing, cioè un approccio alla produzione di contenuti in cui un gruppo ampio di persone è delegato a intervenire per individuare eventuali contenuti fuorvianti.
Ma innanzitutto: che cos’è il fact checking? In italiano “verifica dei fatti”, descrive un insieme di procedure e metodologie finalizzate a controllare l’accuratezza e la veridicità delle informazioni diffuse attraverso i media, sia tradizionali sia digitali. Nonostante la verifica delle fonti e delle notizie abbia una lunga storia nel giornalismo, il fact-checking come attività strutturata ha assunto importanza crescente nell’era di internet e dei social media, in cui circolano rapidamente grandi quantità di contenuti di vario genere.
Nell’attuale ecosistema informativo, la mole di notizie condivise online rende difficile distinguere le fonti affidabili da opinioni personali o da informazioni distorte, se non addirittura completamente false (le cosiddette fake news). Tale complessità è ulteriormente accentuata dal ruolo degli algoritmi di raccomandazione, che selezionano e mettono in evidenza i contenuti in base a interessi e interazioni degli utenti. In questo contesto, il fact-checking diventa un metodo rilevante per assicurare la qualità dell’informazione e contrastare la diffusione di notizie ingannevoli.
Chi fa i controlli
Un aspetto centrale del fact-checking è garantire che i contenuti divulgati (in particolare su temi sensibili come politica, salute, scienza ed economia) siano corretti. Organizzazioni come International Fact-Checking Network (IFCN) del Poynter Institute stabiliscono standard professionali e linee guida per chi si occupa di verifica dei fatti. Tra le procedure ritenute importanti vi è la trasparenza delle fonti, che contribuisce a mantenere un livello elevato di fiducia da parte del pubblico. Un altro vantaggio consiste nella smentita tempestiva di notizie false, corredata da prove verificabili, per tentare di interrompere il ciclo di condivisioni incontrollate tipico dei social media.
Piattaforme come Snopes, una delle più antiche e conosciute, particolarmente attiva sul mercato anglosassone, o PolitiFact, dedicata per lo più a dichiarazioni e notizie in ambito politico negli Stati Uniti, o ancora FactCheck.org, specializzata nel monitoraggio dell’accuratezza delle notizie in ambito politico, operano proprio in quest’ottica, identificando e analizzando contenuti potenzialmente ingannevoli.
Anche testate giornalistiche, enti di ricerca e agenzie governative fanno spesso ricorso al fact-checking, poiché considerato un mezzo per rafforzare la propria autorevolezza, dimostrando di fondare le affermazioni su dati concreti. Il Washington Post dispone di un proprio team denominato “Fact Checker”, famoso per la sua “Pinocchio scale”, con cui assegna ai contenuti vari livelli di “bugia”, dalla omissione di alcune informazioni rilevanti al sovvertimento vero e proprio dei fatti.
Anche la BBC e Reuters hanno servizi e personale dedicato ad analizzare notizie e smentire bufale e voci infondate. In Italia, Pagella Politica è specializzata nel verificare le dichiarazioni dei politici italiani, mentre EU vs Disinfo è una task force dell’European External Action Service (EEAS) volta a contrastare disinformazione e propaganda, in particolare di matrice estera.
Risultati?
Diversi studi accademici segnalano che il fact-checking può migliorare la comprensione dei fatti e diminuire la circolazione di informazioni errate, benché l’efficacia vari in funzione di fattori quali la predisposizione individuale, il contesto socio-politico e la prontezza con cui avviene la rettifica.
Una ricerca pubblicata su Political Behavior ormai parecchi anni fa, nel 2010, mostra che il fact-checking può correggere convinzioni sbagliate in parte del pubblico. Lo stesso studio segnala però anche il “backfire effect”, fenomeno per cui la smentita rischia di rafforzare la credenza errata in contesti altamente polarizzati, sebbene l’effetto sia meno frequente del previsto.
Anche integrare il fact-checking con programmi di alfabetizzazione mediatica sembra potenziare la capacità degli utenti di identificare notizie tendenziose. Chi attinge regolarmente a contenuti verificati adotta, in media, un approccio più critico. Altri studi mostrano che a contare è anche la velocità con cui le notizie si diffondono: se la correzione arriva tardi, il contenuto errato può aver già raggiunto un ampio pubblico, influenzandone le opinioni. C’è da dire che la quantità di post, articoli e video prodotti quotidianamente rende estremamente complessa la verifica puntuale di ogni informazione, specialmente con procedimenti manuali. Inoltre, le innovazioni tecnologiche, come gli algoritmi avanzati di intelligenza artificiale (compresi i modelli di linguaggio di grandi dimensioni, LLMs), semplificano la creazione di contenuti ingannevoli, richiedendo dunque un’evoluzione parallela degli strumenti di verifica.
Infine, cosa non semplice, è importante valutare quante e quali informazioni, acquisite attraverso il fact-checking, risultino effettivamente fruibili dagli utenti finali. Un’indagine recente di Newsguard, società specializzata nella valutazione dell’affidabilità di fonti d’informazione online, afferma che “sulla disinformazione russa, cinese e iraniana, il programma di fact-checking di Meta ha offerto una soluzione nel 14 per cento dei casi”. In pratica, solo il 14 per cento dei post che promuovevano le 30 narrazioni di disinformazione russa, cinese e iraniana identificate da NewsGuard stesso è stato etichettato come falso o fuorviante sulle piattaforme Meta.
La saggezza della folla
La questione è: eliminare le funzionalità di fact-checking dalle piattaforme sociali, affidando la verifica unicamente alla “wisdom of the crowd” (ossia a meccanismi di correzione dal basso), come le Community Notes di X, funziona meglio? Passare dai fact-checker indipendenti alla wisdom of the crowd comporta di sicuro alcune criticità.
Innanzitutto, i professionisti della verifica possiedono conoscenze e risorse per reperire fonti primarie e analizzare dati in modo approfondito. Un approccio basato unicamente sul coinvolgimento degli utenti potrebbe non garantire simili capacità, soprattutto in settori complessi. Inoltre, le comunità online possono essere influenzate da bot, troll e gruppi organizzati, che orientano il “consenso” verso narrazioni non verificate. Nella pratica, utenti con posizioni ideologiche simili possono ritrovarsi in camere d’eco, dove informazioni distorte vengono confermate dalla maggioranza. E infine, c’è la questione della tempestività. Come per il fact checking, anche la wisdom of the crowd si basa sul fatto che gli utenti dedichino tempo a segnalare o correggere contenuti errati. Nel frattempo, i contenuti ingannevoli possono diffondersi rapidamente, soprattutto se fanno leva su aspetti emotivi.
Riassumendo, meccanismi partecipativi come le Community Notes possono certamente favorire il pluralismo e la rapidità di risposta – specie quando la segnalazione di contenuti falsi avviene con tempismo – ma l’assenza di un filtro professionale e i possibili tentativi di manipolazione possono minarne l’affidabilità complessiva. Una strategia equilibrata per contrastare efficacemente la disinformazione richiede che vengano integrati l’apporto della collettività e l’expertise dei fact-checker.
Semplificare il lavoro
Il gruppo di ricerca di cui faccio parte, una collaborazione di lunga data tra la Scuola IMT e l’Istituto di Informatica e Telematica (IIT) del CNR di Pisa, mira a individuare strategie per ridurre tempi e costi necessari a stabilire l’accuratezza e la veridicità delle informazioni online, concentrandosi direttamente sulla fonte. Organizzazioni specializzate, come la già citata NewsGuard, forniscono infatti valutazioni preziose sull’affidabilità degli editori di notizie digitali. Tuttavia, pur offrendo indicazioni utili, l’analisi di criteri come la presenza di contenuti di parte o propagandistici richiede ingenti risorse e tempo. Di conseguenza, molti editori online non vengono valutati, creando una lacuna nella copertura. Le ricerche condotte da IMT e CNR-IIT puntano proprio ad automatizzare il processo di valutazione dell’affidabilità dei siti di notizie.
Le nostre ricerche hanno prodotto diversi risultati significativi, come la capacità di classificare automaticamente il livello di affidabilità di una fonte giornalistica attraverso l’analisi dei suoi testi o studiando le interazioni sociali degli utenti che condividono articoli di quella testata. Abbiamo anche sviluppato TROPIC, un prototipo che consente ai giornalisti esperti di semplificare il loro lavoro di indagine. Un progetto in corso mira a valutare quando e in che modo un modello linguistico di grandi dimensioni (LLM) può efficacemente sostituire l’essere umano nella valutazione dell’affidabilità della fonte.
La valutazione della veridicità di una notizia può essere affrontata da diverse prospettive, come il fact-checking, la raccolta di annotazioni dalla comunità — sul modello di iniziative come quelle di X — o l’analisi della credibilità della fonte. Ogni metodologia presenta vantaggi e limiti specifici, e riteniamo che la chiave risieda nella sinergia tra questi approcci. Integrare tali metodi, con un’attenzione particolare all’automazione dei processi, può contribuire a ridurre i lunghi tempi e i costi elevati delle analisi manuali, rendendo il sistema più efficiente e scalabile.