Sfruttare le intelligenze artificiali per combattere la disinformazione online

20 Settembre 2022 • Digitale, Economia dei media, Giornalismi, In evidenza, Più recenti • by

Copyright: Pixabay

Non è un segreto che la disinformazione, fomentata dagli algoritmi delle Big Tech, sia un fenomeno sempre più dilagante in rete. Da tempo i giornalisti cercano di smascherare le fake news che circolano online e le persone che vi sono dietro.  Ora alcune start-up sperano che la loro intelligenza artificiale (AI) possa aiutare le redazioni in questo arduo compito. Oggetto di numerosi dibattiti, l’utilizzo delle AI nella lotta alla disinformazione è stato uno dei temi trattati nel recente report AI Startups and the Fightst Mis/Disinformation: An Update, pubblicato dal German Marshall Fund for the US. Lo studio include interviste con alcune delle organizzazioni che cercano di collaborare con le redazioni giornalistiche.

L’idea è semplice: L’intelligenza artificiale può aiutare gli esseri umani a contrastare la disinformazione online, controllando all’ istante le notizie  e autenticando i contenuti in modo da migliorare la fonte di riferimento, ovvero la nostra capacità di identificare la natura, l’origine e lo scopo delle informazioni. La speranza è che questo rafforzi la fiducia dei consumatori nelle notizie.

Problemi di fiducia

L’Edelman Trust Barometer di quest’anno ha rilevato che il 76% degli utenti si preoccupa che “le fake news vengano usate come un’arma” e che quasi la metà (46%) considera i media come una “forza divisiva nella società”. In particolare, i livelli di fiducia sono più alti nei Paesi con emittenti pubbliche rispettate, tra cui Svezia, Danimarca e Regno Unito.

Queste preoccupazioni sulla fiducia nei media hanno spinto  The Journalism Trust Initiative (JTI) e NewsGuard a sviluppare sistemi di valutazione per consentire al pubblico e agli inserzionisti di sapere quali sono gli organi di informazione affidabili. La JTI, guidata da Reporters Without Borders, sviluppa e implementa “indicatori di affidabilità nel giornalismo”. NewsGuard, fondata, guidata e gestita da giornalisti professionisti, ha creato un “rating” delle notizie – verde (“generalmente affidabile”) o rosso (“generalmente inaffidabile”) – basato su nove criteri per produrre una “etichetta nutrizionale” per i siti d’ informazione pubblica.

Vett News, sostenuta dalla Knight Foundation, si avvale invece di un sistema di feedback tra i consumatori e i produttori, facilitando la segnalazione e la correzione di errori di battitura, fattuali e di parzialità, nonché includendo ulteriori riferimenti al contesto. The Factual utilizza una piattaforma informatica per identificare le notizie imparziali destinate ai consumatori interessati a fonti affidabili.

AI in soccorso

“Pensate all’AI come a un supplemento del pensiero umano, e non come a un sostituto”, ha suggerito Arjun Moorthy, cofondatore e CEO di The Factual, in un’intervista per il rapporto del German Marshall Fund. “Mentre i computer sono in grado di dire se un fatto specifico è vero o falso, collegare i fatti tra loro e comprendere le notizie richiede un contesto e una storia straordinari, in cui gli esseri umani eccellono. Per questo l’intelligenza artificiale può aiutare a identificare i fatti necessari affinchè l’essere umano possa giungere più facilmente alle proprie conclusioni”.

In un’intervista a proposito di fact- checking, Enock Nyariki, community and impact manager dell’International Fact-Checking Network (IFCN) del Poynter Institute, ha discusso il ruolo delle AI nella verifica delle informazioni. Nyariki ha spiegato che il processo di fact-checking può durare da due ore a molte settimane, e comporta una mole di lavoro non indifferente. Prima della pubblicazione bisogna verificare e cercare tutte le affermazioni, scrivere e procedere con l’editing.  Il fact-checking automatizzato, invece, avviene in tempo reale. Si basa sul confronto tecnologico tra le affermazioni fuorvianti e la verifica dei fatti pubblicati.

Fact-checking automatizzato

“L’IFCN è stata lanciata nel 2015 per riunire una comunità crescente di fact-checkers in tutto il mondo e per promuovere l’eccellenza nella lotta contro le informazioni false”, ha dichiarato Nyariki. Negli ultimi sette anni, l’IFCN è passata da 30 a più di 100 organizzazioni, secondo Poynter.

Dal 2016, il gruppo ha ricevuto finanziamenti e informazioni da diverse Big Tech per fornire servizi di fact-checking. Nell’ambito del Meta’s Third-Party Fact-Checking Program, i fact-checkers che collaborano con IFCN valutano la veridicità delle affermazioni riportate su Facebook e Instagram e allegano fact-check ai post con informazioni false, ha spiegato Nyariki.

In occasione delle elezioni presidenziali del 2020, ad esempio, l’IFCN ha riunito i fact-checkers di dieci diverse organizzazioni negli Stati Uniti per creare un database condiviso dei fact check pubblicati. Il database potrebbe essere consultato durante eventi di grande importanza, come i dibattiti presidenziali, per facilitare il fact-checking in tempo reale.

Tuttavia, questo tipo di verifica automatizzata è ancora agli albori e continua a essere riconfigurata dalle  istituzioni accademiche, come il Reporters’ Lab della Sanford School of Public Policy della Duke University, e da start-up emergenti, come la londinese Full Fact. Quest’ultima utilizza tre strumenti automatizzati che individuano e classificano le affermazioni, le confrontano con le prove esistenti e aiutano i fact-checkers fornendo dati statistici rilevanti. In definitiva, questa combinazione di strumenti potrebbe contribuire a rendere il fact-checking istantaneo una realtà, come descritto in un recente articolo di Poynter.

La presenza e la portata dei contenuti multimediali fuorvianti, tuttavia, complicano il problema. In un articolo del 2018 per la Columbia Journalism Review, Nicholas Diakopoulos ha affermato che: “… la prova visiva potrebbe perdere in gran parte la sua forza, dato che i disinformatori strategici usano lo spettro della tecnologia per minare ogni vera (verifica)”. E si è chiesto: “Quindi cosa succederà quando il pubblico non potrà più fidarsi dei media che incontra online?”.

Altre risposte

Alcune redazioni e grandi aziende tecnologiche hanno collaborato per stabilire nuovi standard di autenticità attraverso la Content Authenticity Initiative (CAI), una collaborazione formale tra Adobe, Arm, BBC, Intel, Microsoft e Truepic, uno strumento di autenticazione di foto e video che consente alle aziende, alle organizzazioni non profit e ai citizen journalist di tutto il mondo di verificare la provenienza delle loro foto e dei loro video.

Mounir Ibrahim, vicepresidente degli affari pubblici di Truepic, ha dichiarato agli studenti della Columbia University che hanno lavorato al rapporto del German Marshall Fund che la pandemia, obbligando gran parte della società a digitalizzarsi, ha reso ancora più importante la lotta alla disinformazione.

Conclusione

Sulla scia del COVID-19, delle elezioni presidenziali statunitensi del 2020, dell’insurrezione al Campidoglio degli Stati Uniti e dell’invasione dell’Ucraina da parte della Russia, sembra ormai chiaro che l’informazione pubblica si trovi costantemente minata dalla diffusione di fake news. Le start-up di intelligenza artificiale da sole non saranno sufficienti, ma hanno un ruolo da svolgere per aiutare le redazioni giornalistiche.

Qui potete trovare il repor completo “AI Startups and the Fightst Mis/Disinformation: An Update”

Le opinioni espresse  sono quelle dei soli autori e non riflettono o rappresentano necessariamente le opinioni, le politiche o le posizioni dell’EJO o delle organizzazioni con cui sono affiliati.

Articolo tradotto dall’ originale inglese.

Se vi è piacuto questo articolo, potreste essere interessati a leggere anche: Social e videogiochi: le armi della disinformazione ai tempi della Guerra

Seguici su Facebook e Twitter.

Print Friendly, PDF & Email

Tags:, , ,