Come coinvolgere il pubblico nel fact-checking

13 Luglio 2018 • Digitale, In evidenza • by

Kai Pilger / Unsplash

Nell’attuale clima di surplus informativo la domanda di fact-checking è in aumento costante. Negli ultimi anni, organizzazioni mediatiche come WikiTribune hanno suggerito il crowdsourcing come un’opzione attraente e a buon mercato per potenziare la verifica delle notizie. Ma è una buona idea? Ecco la mia opinione. Ci sono tre componenti del crowdsourcing che possono essere sfruttate in questo senso:

“velocità”: quanto velocemente un compito può essere eseguito;
“complessità”: quanto il compito è difficile da eseguire, perché più lo è, più necessita di supervisione;
“copertura”: il numero di argomenti o aree che possono essere trattati;

Queste componenti costituiscono un triangolo e possono essere ottimizzate solo a due alla volta, mentre una  va inevitabilmente sacrificata. La difficoltà del fact-checking in crowdsourcing è dovuta al fatto che può coprire più o meno qualsiasi argomento, quindi bisogna per forza avere la capacità di coprire temi molto diversi e variegati. Essendo poi un compito complesso, bisogna per forza essere in grado di gestirne la complessità e, per essere efficace, deve anche avvenire velocemente. I progetti di fact-checking basati sul contributo degli utenti lanciati fin qui sono finiti col fare tutto il lavoro da sé pur di non perdere il treno degli aggiornamenti e questo è successo, di norma, entro poche settimane dal lancio.

I più notevoli tentativi di sperimentare il fact-checking crowdsourced, al momento, sono stati TruthSquad e FactcheckEU e sebbene nessuno di questi progetti abbia provato che il crowdsourcing possa aiutare ad espandere il core business del fact-checking, hanno però entrambi mostrato che questo può generare del valore nelle attività attorno all’attività diretta di verifica delle notizie.

Cosa hanno realizzato queste iniziative di factchecking
Esempi di alto profilo di crowdsourcing come Quora, Stack Overflow e Wikipedia, che sfruttano e raccolgono la conoscenza collettiva, hanno provato che grandi gruppi di persone possono essere utilizzati in modo significativo per compiti complessi su diversi argomenti. Ma ciò che viene sacrificato in questi casi è di norma la velocità. Progetti come mySociety’s Gender Balance (che chiede agli utenti di identificare il genere dei politici) e Democracy Club’s Candidate (che ricorre, invece, al crowdsourcing per le informazioni sui candidati alle elezioni) hanno dimostrato invece che i piccoli gruppi possono avere un grande impatto con compiti più semplici e svolti velocemente. Ma ciò che viene sacrificato, in questo caso, è la vastità della copertura potenziale.

A Full Fact, durante le elezioni del 2015, avevamo 120 volontari che aiutavano la nostra organizzazione a monitorare le operazioni, ma a essere sacrificata era la complessità. Gli unici esempi che hanno operato ad alti livelli di complessità, in tempi rapidi, riuscendo a coprire tutte le informazioni che richiedevano fact-checking sono state TruthSquad e FactcheckEU.

Nel 2010 l’Omidyar Network ha finanziato TruthSquad, una progetto pilota di fact-checking crowdsourced gestito in collaborazione con Factcheck.org. Il principale obiettivo del progetto era promuovere la cultura dell’informazione e il coinvolgimento del pubblico, piuttosto che tentare un approccio scalabile al fact-checking. Gli utenti potevano votare sulle affermazioni, e poi con l’aiuto di un giornalista moderatore, venivano prodotti i report sulla verifica delle notizie. In un commento online, il leader del progetto, Fabrice Florin, ha concluso che “nonostante gli alti livelli di partecipazione, non abbiamo ricevuto così tanti link e recensioni utili della nostra comunità come avevamo invece sperato. Il nostro team editoriale ha fatto la maggior parte del lavoro più duro per ricercare prove fattuali e due terzi delle revisioni e la maggior parte dei link erano postati dal nostro staff. Ogni citazione richiedeva fino a due giorni di lavoro dei nostri redattori, dall’inizio alla fine. Quindi questo progetto ha finito col richiedere più lavoro di quel che pensavamo […]”.

Il progetto ha avuto successo nel coinvolgere i lettori nel processo di fact-checking, ma non si è dimostrato un modello scalabile per produrre verifica delle notizie di alta qualità. FactcheckEU era invece gestito come un tentativo di fact-checking in tutta Europa da Alexios Mantzarlis, co-fondatore del sito italiano di fact-checking Pagella Politica e coordinatore dell’International Fact-Checking Network. In un’intervista, Mantzarlis ha detto che nel progetto “c’era questo conflitto intrinseco tra l’aspettare per mantenere alta la qualità di un fact-check e la volontà di coinvolgere molte persone. Probabilmente abbiamo sbagliato sul primo fronte, revisionando tutto ciò che non era stato inviato da un fact-checker di alto livello”.

Perchè il fact-checking in crowdsourcing è così difficile
Per capire perché il fact-checking crowdsourced non si è dimostrato finora efficace dobbiamo parlare delle sue differenti fasi.

Monitoraggio e selezione
Una delle prime parti del processo di fact-checking è passare in rassegna i giornali, le tv e i social media per ricercare affermazioni che possano essere verificate, e che potrebbe valer la pena verificare. La decisione di verificare viene spesso presa da un team editoriale, facendo attenzione alle verifiche fondamentali e agli equilibri. Se le affermazioni vengono inviate e selezionate dagli utenti, come ci si può assicurare che la selezione sia distribuita equamente attraverso lo spettro politico e che le dichiarazioni provengano da una molteplicità di organizzazioni mediatiche?

Mantzarlis ha detto che “gli argomenti interessanti vengono agguantati abbastanza in fretta”. Ma che cosa significa questo per le affermazioni più semplici ma comunque rilevanti? Le parti all’opposizione avranno sempre un particolare interesse nell’applicare il fact-checking a quanto dichiarato da chi è al potere e questo potrebbe distorcere le operazioni nel complesso? Le campagne politiche ricche di risorse esprimeranno sempre un parere positivo sulle affermazioni che servono meglio i loro obiettivi? E che dire della distorsione intrinseca prodotta dal volontariato? Le persone più disposte a donare il loro tempo hanno un reddito più elevato, e questo cosa comporta in termini di selezione?

Controllo e pubblicazione
La seconda fase comprende la ricerca e la scrittura dei report, fase in cui le fonti primarie e le opinioni degli esperti vengono consultate per capire le affermazioni, i dati disponibili e il loro contesto. Le conclusioni vengono poi sintetizzate per produrre dei contenuti che spieghino la situazione chiaramente e fedelmente. Sia TruthSquad che FactcheckEU hanno scoperto che questa parte del processo necessita di più supervisione del previsto.

“Al culmine eravamo un team di 3 persone […]. Follemente abbiamo pensato, e abbiamo imparato nel modo più duro che non era così, che sfruttare gli utenti avrebbe richiesto meno risorse umane; ma in realtà ne ha richieste di più, almeno a livello micro”, ha spiegato ancora Mantzarlis. Il lavoro del processo di editing, che assicura il livello di qualità giornalistica, in questo caso era anche un grande fattore di demoralizzazione: “dove abbiamo davvero perso molto tempo, spesso più giorni, era in questa routine […]: o richiedeva più tempo di quello che ci avremmo messo a scrivere da soli, o gli utenti perdevano interesse”.

Gli altri passi

Dopo la ricerca e la produzione dei contenuti, si svolgono varie attività intorno al fact-checking. Queste includono la richiesta di correzioni, la promozione sui social media o la trasformazione dei report in diversi formati, come quello video. Mantzarlis ha fatto notare che “la maggior parte dei successi che abbiamo avuto ricorrendo al contributo degli utenti in realtà riguardava le traduzioni. […] Le persone erano felici di tradurre i nostri fact-checking in altre lingue”. Se TruthSquad e FactcheckEU non hanno provato che il crowdsourcing è utile per la ricerca alla base del processo di fact-checking, hanno però mostrato che questo può produrre benefici interessanti per le attività ad essa associate. Si approfondirà meglio la questione alla fine.

Il bisogno di velocità e il rischio di manipolazione
Phoebe Arnold, coordinatrice delle comunicazioni e dell’impatto a Full Fact afferma che “più rapidamente viene pubblicato il factchecking, più è probabile avere un impatto sul dibattito”. Prendiamo il caso del fact-checking ‘live’, fatto tramite ricerche e Twitter in tempo reale durante un dibattito o un discorso politico. A Full Fact, solo ai fact-checker più esperti viene affidato questo compito, per paura del danno di reputazione che un eventuale lavoro inaccurato potrebbe causare.

Paul Bradshaw, che gestisce il sito di investigazioni crowdsourced Help Me Investigate dice invece che “[il crowdsourcing] si adatta meglio alle storie di lunga durata che alle breaking news” perché  in caso di fact-checking live, ogni frase pronunciata da un politico durante un dibattito elettorale potrebbe essere una breaking story e, poiché le affermazioni possono essere facilmente estratte, l’uso del crowdsourcing per verificare le affermazioni non ha un grande valore. Tuttavia, non tutto il fact-checking si svolge a questa velocità estrema e può verificarsi nell’arco di ore, o pochi giorni. Non conosco molte attività di volontari che lavorano a questa velocità con così tante interazioni fra i partecipanti.

Per approfondire: Si può automatizzare il fact-checking?

Anche se in qualche modo il lavoro che si avvale dell’aiuto della crowd arriva al punto in cui può essere pubblicato, è richiesto generalmente più lavoro per verificarne l’accuratezza prima della pubblicazione. In un report per il Reuters Institute for the Study of Journalism, Johanna Vehkoo conclude che “il crowdsourcing è un metodo facilmente soggetto a manipolazione. È possibile per gli utenti dare deliberatamente ai giornalisti informazioni false, specialmente in situazioni di breaking news in rapido sviluppo. In un esperimento come ‘MPs’ Expenses’ del Guardian, un utente ha avuto la possibilità di diffamare dei parlamentari insinuando una cattiva condotta laddove questa non c’era stata. Quindi i giornalisti devono prendere precauzioni, identificare i rischi, e operare un fact-checking rigoroso”. I progetti TruthSquad, FactcheckEU e MPs’ Expenses hanno richiesto tutti comunque uno step finale di fact-checking per assicurare la qualità dell’informazione e l’adempimento dei propri obblighi legali. L’utilità del fact-checking crowdsourced è compromessa se ciò è sempre necessario?

Modelli di crowdsourcing che potrebbero funzionare
C’è qualche possiblità che il crowdsourcing aiuti davvero a combattere la disinformazione? Io ci spero. Il Tow Center for Digital Journalism ha pubblicato una “Guida al crowdsourcing” che fornisce una possibile via per il futuro. Questa suggerisce alcuni compiti per la crowd che potrebbero essere funzionali, questi includono:

Voti : esprimere delle priorità sulle storie che i reporter dovrebbero coprire.
Testimonianze : condividere quanto si è visto durante un evento, una breaking news o una catastrofe naturale.
Condividere esperienze personali: divulgare ciò che si sa grazie alla propria esperienza diretta.
Individuare expertise specializzate : contributi con dati o conoscenze specifiche.
Completare un compito: con il tempo e le capacità dei volontari per aiutare a creare una notizia.
Coinvolgere il pubblico: radunarlo con iniziative che variano dall’informativo al giocoso.

Nonostante le sue mancanze nelle attività di ricerca pura del processo di fact-checking, questi esempi mostrano opportunità in cui il crowdsourcing può portare benefici palesi  — ammesso che si sia in grado di passare attraverso le forche caudine del triangolo che citavamo all’inizio. E non finisce qui. Qui di seguito c’è qualche altro esempio che potrebbe ispirare un maggiore coinvolgimento del pubblico nella verifica delle notizie:

Inviare le affermazioni da verificare:  i lettori possono inviare informazioni che credono dovrebbero essere verificate. L’International Fact Checking Network’s Code of Principles, a questo proposito, incoraggia non a caso i lettori in questo senso. Questo può aiutare ad ampliare la visibilità delle affermazioni attraverso una gamma di media diversi, e può essere la soluzione al problema dei claim da verificare, che altrimenti proverrebbero solo da un circolo chiuso di persone.
Annotare i dati ed estrarre le informazioni in anticipo: i compiti meccanici o semi-professionali, come estrarre le informazioni e organizzarle in un formato standard, può aiutare e non poco i fact-checker. Ciò è possibile nel sopracitato compromesso fra la gestione dei contributi individuali e lo sforzo per verificare questi contributi, ma qui il vantaggio è che il contenuto può essere verificato in anticipo. Man mano che il processamento del linguaggio naturale e del machine learning vengono applicati alle attività di fact-checking, ci sono più possibilità per crowdsourcing. Per esempio, a Full Fact abbiamo raccolto 25mila annotazioni da parte di 80 volontari per il nostro progetto di ricerca automatizzata sulle dichiarazioni dei politici.
Esperienza selezionata o guadagnata: alcuni fact-checker usano già liste pre-approvate di esperti che rispettano gli standard richiesti per supportare il fact-checking su certi argomenti. È anche possibile che essi ricorrano alla crowd per attrarre esperti che possano contribuire ai fact-check al fianco dei professionisti. L’elemento critico qui è essere in grado di di fare affidamento su tali contributi. Giovani giornalisti, ricercatori e singoli individui devono mostrare di avere una reputazione accertata nel tempo. Come questa reputazione può essere accumulata o provata resta comunque da vedere.
Diffondere l’informazione corretta: durante il referendum sulla Brexit, migliaia di membri di 38 corsi di laurea hanno preso parte a una rete di distribuzione. I membri di questa rete prendevano i risultati dei fact-check e li ripostavano su forum, gruppi sui social media e li condividevano con amici e familiari. Questo ci ha permesso di entrare in comunità che altrimenti non avremmo potuto raggiungere.
Crowdsourcing come cultura digitale: TruthSquad ha scoperto che “i non professionisti hanno appreso capacità di valore di fact-checking interagendo con i professionisti”, e ha poi aggiunto che un focus primario del fact-checking crowdsourced era proprio quello di insegnare delle capacità piuttosto che produrre un output fruibile. Il lavoro volontario genera ovunque un sentimento di lealtà che  — per le organizzazioni di fact-checking che vivono di donazioni — è un’attraente conseguenza.

Saremmo pazzi a ignorare una risorsa così grande e desiderosa di aiutare nella lotta alla disinformazione come il crowdsourcing, ma questa risorsa deve essere utilizzata in maniera intelligente se si vuole che sia efficace. Sembra, almeno fin qui, che il potenziale della crowd non possa essere sfruttato nella fase di ricerca, dove l’onere dell’accuratezza, della velocità e della complessità sono troppo elevati, ma potrebbe dare risultati interessanti nelle attività complementari al fact-checking puro. Sembrano anche esserci segnali incoraggianti che così facendo si possa migliorare la cultura mediatica e quindi, nel lungo periodo, anche aiutare a fermare la diffusione della disinformazione sul nascere.

Articolo tradotto dall’originale inglese da Giulia Quarta. L’articolo è apparso originariamente su Medium, lo ripubblichiamo qui per gentile concessione dell’autrice

Print Friendly, PDF & Email

Tags:, , , , ,