Source Hacking: come si crea una campagna di disinformazione online

17 Settembre 2019 • Digitale, Più recenti • by

https://datasociety.net/

Negli ultimi anni sono state numerose le campagne di manipolazione dell’opinione pubblica online basate su fonti non riconosciute, anonime o cospirazioni (fra le altre il caso QAnon, il video manipolato di Nancy Pelosi, la campagna della alt-right Usa It’s OK To Be White e il tristemente noto Pizzagate). Con i social media, ormai considerati dagli utenti come piattaforme prioritarie per la ricerca di informazioni, i contenuti propagandistici e la disinformazione sono sempre più presenti grazie alla facilità di condivisione. L’ultima ricerca del centro studi Data & Society sul tema, “Source Hacking: Media Manipulation in Practice”, propone una tassonomia delle tecniche di manipolazione online all’interno del contesto politico statunitense.

Alla base delle campagne di manipolazione online vi è quello che i due autori Joan Donovan, Direttrice del Technology and Social Change Research Project presso lo Shorenstein Center di Harvard, e Brian Friedberg, Senior Researcher presso lo stesso centro di ricerca, definiscono come “source hacking“. Secondo gli autori, fanno capo a questa definizione un insieme di tecniche utilizzate con lo scopo di nascondere le fonti utilizzate per la creazione di un messaggio di propaganda politica e permettere la sua circolazione fino all’approdo sui media mainstream. Il motivo per il quale è necessario nascondere le fonti è presto detto: sono false o create ad hoc. Se la manipolazione raggiunge il suo scopo, i risultati sono due: in primis, saranno i giornalisti stessi o in generale gli operatori dell’informazione e il pubblico a imbattersi nei contenuti creati, complice la struttura delle piattaforme social; in secondo luogo, aumenterà la polarizzazione dell’opinione pubblica su tematiche rilevanti in un dato momento.

Perché le campagne di manipolazione hanno effetto?
Secondo Donovan e Friedberg, la chiave del successo di queste campagne sta nell’abilità di “hackerare” la narrativa di alcuni eventi o temi polarizzanti, così come nella vulnerabilità delle  piattaforme di comunicazione online. Proprio per queste ragioni gli studiosi hanno identificato quattro tecniche, emerse dall’analisi di alcune campagne di disinformazione politica online svoltesi negli Stati Uniti tra il 2016 e il 2018. I contenuti veicolati in questi casi sono per lo più immagini, meme, video e articoli giornalistici falsi nati su piattaforme come 4chan e Reddit e creati da individui abili nel coniugare conoscenze di marketing, propaganda politica e vulnerabilità tecnologico-sociali. Per ogni contenuto, e a seconda dell’obiettivo da raggiungere, è di norma utilizzata una delle quattro tecniche individuate nel report, o una loro combinazione.

Viral sloganeering: come si gonfia un  messaggio politico
Il “viral sloganeering”, ad esempio, è un’operazione di tipo bottom-up che consiste nel prendere i punti centrali di un messaggio politico di un partito o di un individuo e, attraverso l’utilizzo di meme, immagini, contenuti creati ad hoc, utilizzarlo a proprio favore o aumentarne la diffusione mediatica oscurandone le reali fonti. È ciò che è successo, ad esempio, a fine ottobre 2018, quando il Presidente americano Trump pubblica, sul suo account Twitter, un video seguito dall’hashtag #JOBSNOTMOBS!. In un articolo del New York Times apparso poco tempo dopo il tweet, il giornale ha fatto luce sul percorso compiuto dallo slogan in meno di due settimane a partire dal sito di social news Reddit fino alla Casa Bianca. Lo slogan, creato su Reddit da anonimi, reso credibile e autorevole attraverso informazioni non veritiere e disseminato su Twitter (anche grazie all’utilizzo di bot) è arrivato a Fox News, il media mainstream, in un segmento del telegiornale serale. Individui anonimi appartenenti a una community di Reddit avevano formalizzato lo slogan grazie a ciò che Amelia Acker, ricercatrice del Dipartimento di Scienze Informatiche dell’Università di Austin, definisce “data craft”: l’interazione fra artigianato e astuzia nell’hacking.

Leak forgery: fuga di notizie che non lo erano
Un’altra tecnica presentata dai ricercatori è invece quella del “leak forgery”, ovvero la falsificazione ad arte di documenti inerenti alla vita privata di un politico (o di un obiettivo simile) che, una volta rilasciati al pubblico, ne screditano l’immagine. Uno dei due casi studio analizzati da Donovan e Friedberg ha inizio nel maggio del 2017 quando un utente anonimo del sito 4chan pubblica 9 gigabyte di file intitolati “Documents proving Macron’s secret tax evasion”, affermando di averli ottenuti operando una truffa a mezzo phishing agli archivi digitali del presidente francese Emmanuel Macron. I documenti sono stati ritenuti falsi, ma la campagna di manipolazione ha sortito un impatto molto forte sull’attenzione degli utenti online così come sulla stampa, a pochi giorni dalle elezioni presidenziali. Spesso la natura dei leak è anonima: anche se questo è un aspetto fondamentale della pratica stessa poiché protegge l’identità della fonte, è necessario tenere in considerazione anche l’altra faccia della medaglia ovvero l’oggettiva impossibilità di verificare la veridicità dei documenti o delle informazioni.

Evidence collage: costruire una teoria del complotto
Una terza tecnica, denominata “evidence collage”, consiste invece nella sovrapposizione di informazioni veritiere (provenienti da testate nazionali o verificate) e informazioni confezionate a supporto di una tesi specifica (screenshot, link, siti web). L’immagine che ne risulta è una versione distorta della realtà dei fatti. Questa tecnica nasce parallelamente alla Open Source Investigation, che si affida specificatamente all’analisi dei social media, della presenza online di un utente o dell’utilizzo di siti come Google Earth o Maps per osservare la localizzazione di edifici o case. Un caso esemplificativo della tecnica è proprio il Pizzagate: una teoria del complotto venuta alla ribalta nel 2016 che sosteneva l’esistenza di una società segreta composta dai maggiori esponenti politici mondiali e dei leader democratici, il cui scopo era il traffico sessuale di bambini. WikiLeaks aveva pubblicato nel medesimo periodo alcune email dell’allora presidente della campagna elettorale di Hillary Clinton John Podesta, nelle quali erano contenuti presunti riferimenti all’abuso di minori. Una volta rese disponibili e sovrapposte a contenuti cospiratori, queste mail sono finite per creare una narrazione alternativa, il cui risultato è stato un messaggio tanto manipolatorio quanto disturbante. La campagna, i cui elementi sono tutt’oggi online, ha portato ad una azione criminale violenta che ha visto protagonista un uomo che, armato di un fucile, ha fatto fuoco nella pizzeria finita al centro della teoria del complotto, fortunatamente senza feriti.

Keyword squatting: troll che diventano (falsi) opinionisti
L’ultima tecnica identificata dai ricercatori di Data&Society è il “keyword squatting”, ovvero la creazione di account o hashtag sui social media nell’ottica di “riempire” di materiale manipolatorio lo spazio digitale dei propri oppositori. Esemplificativo è il caso del movimento Antifa, che ha visto il proliferare di azioni di “doxing” (rilascio di informazioni personali di alcuni appartenenti) o casi di personificazione online di alcuni militanti del movimento da parte di suprematisti bianchi. In questo caso la finalità era quella di screditare e danneggiare la reputazione degli attivisti di sinistra: il processo è stato facilitato dalla poca conoscenza del movimento sia sui social media sia offline, così come dal fatto che Azione Antifascista sia un’organizzazione politica non tradizionale, decentralizzata e dunque non presente sui social media con account ufficiali. La prova si è avuta quando lo Youtuber Kevin Stafford, pubblicati una serie di video con il nickname Boston Antifa, viene invitato da Fox News negli studi del canale come responsabile del movimento. Alcuni giorni dopo l’intervista, la testata Buzzfeed ha rivelato come Stafford non fosse altro che un autodefinito “troll” conosciuto su YouTube con lo pseudonimo BG Kumbi. Nonostante ciò, Fox News non ha mai cancellato né il video né il tweet con il quale ha condiviso l’intervista sui social media. Secondo Donovan e Friedberg, in questo caso, la manipolazione della fonte ha funzionato in due direzioni: da una parte Stafford ha nascosto la sua identità a Fox News, dall’altra quest’ultima non ha impedito che il tweet contenente dichiarazioni false continuasse a circolare ed essere dunque potenzialmente visualizzato da nuova audience.

Seguendo lo schema dei ricercatori, è possibile individuare un threat model specifico che, letteralmente, definisce le potenziali minacce che innescano campagne di manipolazione politica online. Una breaking news o un importante evento (come ad esempio le future elezioni presidenziali americane del 2020) che creano grande attenzione e interesse nell’opinione pubblica possono essere un’opportunità di manipolazione molto accessibile e semplice. Quando poi una notizia è ormai conosciuta, i media mainstream si adoperano per trovarne le fonti, verificarle, investigarne gli attori. Proprio in questo lasso di tempo i manipolatori utilizzano il data crafting e si avvalgono delle vulnerabilità del mondo dell’informazione mainstream e della società stessa allo scopo di influenzare l’opinione pubblica verso un certo tipo di narrazione dei fatti, usando le tattiche del “source hacking”.

Il messaggio che veicolano viene creato all’interno di forum, come 4chan e Reddit, o in spazi digitali anonimi; e, in modo coordinato, condiviso successivamente su differenti piattaforme social dotate di termini di servizio diversi fra loro. In questo momento del processo è inoltre possibile che i manipolatori individuino agenzie stampa o giornalisti ritenuti “deboli” e forniscano loro un mix di informazioni vere e false che, come nel caso di Fox news, verranno pubblicate amplificando la campagna. Per veicolare contenuti che possano essere ripresi e condivisi sulle piattaforme online (ad esempio attraverso hashtag) i manipolatori utilizzano botnet, social media influencer, giornalisti. Così facendo il dibattito creato è viziato direttamente alla fonte. È importante capire inoltre che le campagne di manipolazione evolvono molto in fretta e gli attori anonimi che le animano continuano, finchè è nel loro interesse, a mantenerle vive. Per questo i commenti sotto un post di Facebook o le risposte a un tweet sono utilizzate per provocare reazioni che altro non vanno ad aumentare il network di utenti coinvolti nella campagna.

Di fronte alla complessità e alla totale imprevedibilità di campagne di manipolazione simili a quelle descritte, Donovan e Friedberg sottolineano l’importanza per l’ecosistema dell’informazione di comprenderne portata, impatto e linguaggi, così da non correre il rischio di amplificare a loro volta disinformazione o propaganda politica. Ma soprattutto, che le redazioni investano maggiormente nella tutela dell’informazione a partire da chi la fa: come vengono reperite le fonti, chi le analizza e come.

Il report completo è disponibile qui.

Tags:, , , , , ,