Alla fine di maggio si andrà alle urne in tutta Europa. Molti osservatori attendono le prossime elezioni europee con crescente nervosismo, perché temono che ampie campagne di disinformazione possano influenzare i risultati come è accaduto in occasione del referendum sulla Brexit e delle elezioni presidenziali negli Stati Uniti. Nel 2017, la Commissione Europea ha avviato un’operazione dettagliata volta a svelare ed eliminare le notizie false e la disinformazione. Google e Facebook sono al centro dell’attenzione: recentemente, la Commissione ha fornito il primo resoconto dei suoi risultati. In questo modo le campagne elettorali europee potranno essere protette dalle campagne di disinformazione? Entrambi i report prodotti sono incentrati sui provvedimenti che le due aziende (al pari di altre piattaforme tecnologiche come Twitter) si sono impegnate a rispettare in un Codice di Condotta. I provvedimenti di Google e quelli di Facebook sono molto simili. Ecco gli aspetti più importanti:
Inserzioni politiche
Facebook ha promesso un più alto livello di trasparenza e un archivio di inserzioni politiche che sarà accessibile al pubblico. Oltre alle classiche pubblicità di partito, l’archivio includerà anche le cosiddette “issue ads”, pubblicità tematiche incentrate su questioni politiche controverse o polarizzanti. Negli Usa, ad esempio, le “issue ads” hanno riguardato argomenti come l’aborto o l’immigrazione. Alla vigilia delle elezioni europee, l’archivio e i sistemi di trasparenza dovranno essere applicati anche in Europa. Per ora, Facebook non ha reso noto la data di avvio. Anche Google mira a fornire un archivio di inserzioni e ad assicurare un maggior livello di trasparenza per quanto riguarda le campagne pubblicitarie politiche. Come Facebook, Google non ha ancora lanciato tale sistema in Europa, ma prevede di farlo prima delle prossime elezioni europee.
Combattere gli account falsi
Qualunque cosa venga classificata da Facebook come “non-autentica” (account falsi, account bloccati che vengono riaperti, etc.) verrà rimossa dal network. Facebook stima che il 3-4% degli account attuali siano falsi: su un totale di 2.2 miliardi di account, ben 88 milioni sarebbero quindi fake. Facebook sta lottando da anni contro questa tendenza e in particolare contro gli account che non possono essere fatti risalire a un individuo identificabile sono un problema da ben prima del 2016. Anche Google sta prendendo provvedimenti contro gli account fake e gli attacchi che prendono di mira i suoi servizi, come la creazione di account falsi, le registrazioni a Google News o a Black Hat-SEO, attraverso i quali i risultati di ricerca possono essere manipolati. La piattaforma ha interesse ad adoperarsi per queste iniziative poiché mirano a fornire un ambiente in cui gli utenti si possano sentire a loro agio. Questo tipo di moderazione dei contenuti è una parte elementare dei servizi delle piattaforme digitali, come ha spiegato Tarleton Gillespie, Principal Researcher di Microsoft Research New England.
Interferire con la scelta algoritmica dei contenuti
Il newsfeed di Facebook dà priorità ai contenuti provenienti da fonti attendibili, mentre quelli che vengono da fonti poco chiare vengono declassati o presentati agli utenti meno spesso. Resta comunque discutibile il motivo per cui Facebook consente la pubblicazione di post dubbi, che la piattaforma stessa ha classificato come fuorvianti. Google, invece, sta progettando di apportare più controlli sulle notizie nei suoi risultati di ricerca e sta valutando di introdurre dei “punti di credibilità” che consentiranno di etichettare più chiaramente la qualità dei contenuti. L’impegno di Google e di Facebook è tutt’altro che nuovo. È invece recente l’annuncio fatto da YouTube, piattaforma nota per essere anche un punto di incontro per cospirazionisti di varia natura. In futuro, i contenuti dubbi, come le teorie complottare sull’11 settembre, e quelli delle lobby anti-vax e i dei terrapiattisti, verranno proposti con minor frequenza. Solo il tempo mostrerà gli effetti di questi cambiamenti nel sistema di comunicazione: YouTube afferma che solo l’1% dei suoi video presenta contenuti di questo tipo. Nell’annuncio non viene specificato come questi contenuti verranno classificati, ad esempio se i video verranno segnalati manualmente o in modo automatico.
C’è una crescente consapevolezza, ma si potrebbe fare di piu
In sostanza, Facebook e Google combattono la disinformazione motivate da pressioni politiche, ma anche in vista di qualche beneficio economico. Ma è sufficiente? Mariya Gabriel, Commissaria europea per l’economia e la società digitale, durante la conferenza “Combattere la disinformazione online” da lei organizzata lo scorso 29 gennaio a Bruxelles, ha evidenziato parecchi punti deboli. Secondo Gabriel, costituisce un problema il fatto che non tutti gli stati membri dell’Ue adottino provvedimenti nella stessa misura. In più, Gabriel ha sottolineato come il cambiamento avvenga troppo lentamente e come l’obiettivo di migliorare la trasparenza del mercato pubblicitario non sia abbastanza ambizioso, dal momento che, ad esempio, ai ricercatori indipendenti non è concesso un sufficiente accesso ai dati delle piattaforma. Queste critiche gettano luce sullo status quo del pubblico digitale e come gestisce la disinformazione.
Nel corso della conferenza i rappresentanti delle piattaforme si sono premurati di sottolineare che la trasparenza è imprescindibile e gli utenti dovrebbero aver accesso a maggiori informazioni (incluse quelle a proposito delle informazioni stesse). Tuttavia, resta incerto se l’accesso a maggiori informazioni possa risolvere il problema o se piuttosto aumenterà la confusione. Tuttavia, facendo riferimento all’alfabetizzazione mediatica, la trasparenza e l’informazione distolgono l’attenzione da altri aspetti altrettanto importanti – ad esempio dal fatto che l’organizzazione del pubblico digitale è sempre più monopolizzata dalle grandi piattaforme. È un dilemma dell’era digitale: tali piattaforme sono necessarie per garantire il dibattito pubblico, ma allo stesso tempo queste devono fornire norme e regolamenti affinché il dibattito sia costruttivo. Ciò conferisce loro responsabilità e competenze quasi governative. Anche se, perlomeno in Europa, le varie normative vengono stabilite in stretta collaborazione con le autorità di regolamentazione, la scienza e la società civile, la loro attuazione dipende sempre dai conglomerati tecnologici. Solo degli occasionali informatori-whistleblower consentono approfondimenti maggiori, come Christopher Wylie con lo scandalo di Cambridge Analytica. Fino ad oggi non esiste un monitoraggio istituzionalizzato, esterno, e a lungo termine. I prossimi mesi e anni mostreranno se le opzioni di accesso annunciate per gli scienziati indipendenti saranno sufficienti.
Articolo pubblicato originariamente in tedesco. Traduzione a cura di Claudia Aletti
Tags:disinformazione, elezioni, Europa, fake news