di Flavia Groza
Il 2025 è appena iniziato, e il CEO di Meta, Mark Zuckerberg, è già al centro di polemiche per l’introduzione di una nuova funzionalità sulle piattaforme della compagnia che ha dato vita a Facebook.
“Andremo a eliminare i fact-checker e li rimpiazzeremo con le cosiddette community notes, sul modello di X”
Questa è la dichiarazione di Zuckerberg, apparso in un video pubblicato su tutte le piattaforme Meta, in cui si mostra in prima persona per affrontare la questione del fact-checking. Nel video, il CEO spiega come, secondo lui, i fact-checker commettano errori e siano spesso politicamente faziosi, limitando così la libertà di espressione degli utenti che abitano le sue piattaforme.
Come funzionano i fact-checker?
L’introduzione dei fact-checker risale al 2016 e coinvolge organizzazioni indipendenti e testate giornalistiche iscritte all’International Fact-Checking Network.
Questi enti analizzano i contenuti e, se necessario, applicano un’etichetta che indica che il post è stato verificato e potrebbe essere fuorviante. Il contenuto non viene mai censurato: l’utente ha sempre la possibilità di accedere a informazioni verificate e accreditate, garantendo così una migliore comprensione dei fatti senza rimuovere il diritto di espressione.
Cosa saranno le community notes?
Meta vuole sostituire questi enti terzi con le community notes, seguendo il modello di X (ex Twitter).
Questo nuovo sistema permetterà a un gruppo selezionato di utenti verificati, con una certa anzianità sulla piattaforma, di aggiungere note di contesto ai contenuti pubblicati. Queste note saranno visibili agli altri utenti e serviranno a fornire un quadro più chiaro sull’affidabilità delle informazioni. Tuttavia, questa scelta solleva dubbi sulla neutralità e l’efficacia di un sistema che si affida alla valutazione di un ristretto gruppo di persone.
Libertà di espressione o totale anarchia?
Meta giustifica questa decisione con la necessità di tornare alle radici della libertà di espressione, permettendo agli utenti di esprimere la propria opinione senza il rischio di essere “censurati” da un sistema di fact-checking considerato politicamente fazioso.
Oltre a eliminare i fact-checker, Zuckerberg ha annunciato che Meta allenterà i filtri applicati finora per gestire i contenuti che violano le policy aziendali. Il colosso continuerà a moderare internamente contenuti ritenuti gravi (ad esempio droga, terrorismo, sfruttamento minorile, truffe), ma per le violazioni meno gravi sarà lasciato agli utenti il compito di segnalare i contenuti, che saranno poi revisionati per valutarne l’eventuale rimozione.
Ma davvero Meta vuole solo riportare la libertà di espressione al centro dei propri valori fondamentali?
Un sistema di fact-checking esterno non limita la libertà degli utenti di esprimere la propria opinione. Come già sottolineato, un contenuto verificato dal sistema non viene censurato: il contenuto rimane visibile, accompagnato da un’etichetta che segnala il fact-checking.
Va ricordato che i social media rappresentano per molti il principale mezzo di informazione. È fondamentale garantire non solo la libertà di espressione, ma anche il diritto ad essere informati in modo adeguato. I fact-checker non sono “paladini della verità”, ma offrono il contesto necessario per permettere all’utente di trarre le proprie conclusioni su ciò che legge, scrive e vede.
L’avvento dell’intelligenza artificiale complica ulteriormente la situazione: è sempre più facile produrre contenuti falsi, e per l’utente medio diventa più difficile distinguere ciò che è generato dall’AI da ciò che è reale. Questo rappresenta un grave rischio sociale. Basti ricordare episodi come quelli accaduti durante la pandemia da Covid-19, quando persone hanno seguito consigli medici privi di basi scientifiche, arrivando persino a iniettarsi sostanze tossiche.
Nonostante le critiche, il fact-checking funziona. Giovanni Zagni, in un articolo per il Corriere della Sera, ha citato studi che dimostrano come il fact-checking associato a una notizia di disinformazione sia efficace, anche per gli utenti più scettici. Inoltre, Meta ha permesso agli utenti di fare appello contro le segnalazioni di fact-checking, con un tasso di successo del 4%.
Tuttavia, Meta sostiene che, poiché i fact-checker e i sistemi di filtro falliscono talvolta, semplificare tutto sia la soluzione migliore per garantire la libertà di tutti.
Davvero Meta ha a cuore la libertà di opinione?
Questa decisione sembra rispondere più a influenze politiche che al desiderio di salvaguardare il diritto di espressione.
Zuckerberg introdusse il fact-checking dopo le elezioni del 2016, quando la vittoria a sorpresa di Trump sollevò accuse di diffusione di fake news e interferenze straniere (specialmente russe) tramite le piattaforme Meta. Per contrastare queste accuse, il colosso investì ingenti risorse nel sistema di fact-checking, fino ad arrivare al ban di Trump dopo l’attacco a Capitol Hill del 6 gennaio 2021.
Meta ora si trova tra due fuochi: da un lato, i repubblicani accusano la piattaforma di censurare i contenuti dei loro sostenitori; dall’altro, i democratici criticano Meta per aver polarizzato ulteriormente il paese.
Questa nuova strategia potrebbe anche essere legata alla competizione con Elon Musk, ora vicino al governo di Trump e spesso considerato il suo “braccio destro”. Zuckerberg ha menzionato esplicitamente Trump o Musk nel suo discorso ed ha affermato esplicitamente di voler lavorare con il presidente per restaurare la libertà di espressione. Il trasferimento del team di moderazione in Texas (stato repubblicano) e la nomina di Joel Kaplan, repubblicano, alla guida degli affari globali dell’azienda, sembrano confermare una virata politica.
Cosa ci aspetta?
Le conseguenze di questa scelta potrebbero essere pericolose. La polarizzazione rischia di aumentare, la diffusione di fake news sarà più semplice, e sarà sempre più difficile per gli utenti verificare le notizie.
La rimozione di alcuni filtri di moderazione mette in allarme soprattutto le comunità più marginalizzate, che temono un incremento di comportamenti misogini, omofobi, di bullismo e molestie. Anche le linee guida su temi come le malattie mentali e l’orientamento sessuale potrebbero essere riviste, alimentando stereotipi ormai superati dalla medicina contemporanea.
Questi cambiamenti sono ancora in fase di definizione. Nei prossimi mesi capiremo come cambierà l’esperienza sui social, ma le preoccupazioni, soprattutto per le comunità più fragili, sono già palpabili.