25 Marzo 2025 • Digitale, Etica e Qualità, Giornalismi • by Prompt

Questo testo fa parte della serie PROMPT.
I professionisti dei media considerano la lotta contro la disinformazione come una delle sfide più importanti per il loro lavoro. I cittadini si aspettano che i professionisti dei media non solo siano una fonte di informazione affidabile e verificata, ma anche che proteggano il pubblico dall’influenza della disinformazione.
Ancora di più, la trasformazione nelle strategie e nelle tecniche di disinformazione ha cambiato il modo in cui i giornalisti elaborano le informazioni, spingendoli ad adattarsi e ad adottare nuovi metodi di lavoro.In questo contesto, PROMPT impiega metodi basati sull’intelligenza artificiale per creare un arsenale di rilevamento e contestualizzazione della disinformazione per giornalisti e attivisti.
Ma cosa può aggiungere un nuovo progetto al settore quando esistono già molti studi, iniziative di fact-checking e organizzazioni (anche se poche app di rilevamento della disinformazione)?
I partner di PROMPT riconoscono che la disinformazione è un fenomeno in continua evoluzione, con nuovi temi, attori e tecniche/metodi sempre più strumentalizzati. Studiare l’intelligenza artificiale e la disinformazione significa affrontare un bersaglio mobile che continua ad accelerare con l’innovazione tecnologica.Il compito più importante ma difficile negli studi sulla disinformazione è decifrare l’impatto della disinformazione. Centrale per PROMPT è l’ipotesi che i propagatori della disinformazione sfruttino sempre più modelli specifici di cultura, comunità e lingua per ottenere un impatto maggiore. Dobbiamo comprendere come le narrazioni si formino e si rimodellino per risuonare in comunità specifiche. PROMPT impiega metodi basati sull’intelligenza artificiale e Modelli di Linguaggio di Grandi Dimensioni (LLM) per aiutare a monitorare le narrazioni di disinformazione, il modo in cui si propagano e si trasformano nel processo del loro movimento e trasformazione tra piattaforme sociali e contesti locali.
Il processo non è privo di sfide. Il compito principale di un gruppo di ricercatori della Facoltà di Scienze Sociali dell’Università di Rīga Stradiņš (Lettonia), in collaborazione con opsci.ai, il coordinatore del progetto PROMPT, è stato creare un codice – per rilevare e decostruire le principali narrazioni di disinformazione e i loro argomenti associati.
Cosa c’è di nuovo nel codice PROMPT?
Utilizzando precedenti ricerche sulla disinformazione, le migliori pratiche dei professionisti e l’analisi di “campioni” di disinformazione, abbiamo creato un codice composto da 30 gruppi di codici e più di 240 codici. Basandoci su un approccio interdisciplinare (media, comunicazione, studi semantici), abbiamo sviluppato un sistema di codifica della disinformazione che combina vari elementi linguistici, dispositivi retorici, tecniche di manipolazione dell’informazione, oltre a codici che aiutano a riconoscere lo scopo della disinformazione, le intenzioni dei suoi propagatori e i suoi possibili effetti.
Nel codice, la forma della disinformazione (come viene presentata) è tanto importante quanto la sua sostanza (di cosa parla).
La parte principale del codice esplora varie categorie linguistiche e retoriche. Guidati dall’intuizione che i diffusori di disinformazione utilizzano sempre più modelli specifici di cultura, comunità e lingua per ottenere un effetto maggiore, ci siamo concentrati sulla retorica della disinformazione attraverso un filtro multimodale (testi, foto, video) e multilingue (8 lingue). Decifriamo queste pratiche classificando meccanismi di persuasione e tecniche di manipolazione dell’informazione, dispositivi lessicali e un elenco diversificato di figure retoriche. Per analizzare livelli più profondi della disinformazione, utilizziamo categorie assiologico-semantiche per determinare e definire quali valori promuovono questi post sui social media.
Il codice aiuta anche a identificare se l’informazione mira a seminare discordia, diffondere paura e influenzare l’opinione pubblica utilizzando parole bellicose che trasmettono aggressività o ostilità (es. “nemico”, “traditore”, “invasore”, “conflitto” o “minaccia”); oppure se promuove discriminazione contro determinati gruppi attraverso parole stereotipate che rafforzano cliché – es. “catho-facho”, “regina del welfare” o “immigrato pigro”. Un senso di urgenza, paura o panico può essere facilitato da parole allarmiste, spesso usate per esagerare una situazione o provocare una forte risposta emotiva, es. “catastrofico”, “urgente”, “epidemia”, “tragico” o “crisi”. Tuttavia, l’identificazione di un lessico specifico non conferma necessariamente la presenza di disinformazione; piuttosto, aiuta a vedere se è altamente correlato con contenuti di disinformazione.
Dopo la prima fase di test, realizzando le capacità dello strumento di analisi approfondita, abbiamo anche integrato nel codice l’analisi di come il linguaggio nei post sui social media si connette con diverse ideologie politiche. Questo approccio migliora significativamente la capacità dello strumento di integrare un contesto più ampio della cultura politica nella comprensione della disinformazione.
Alimentate dall’intelligenza artificiale (LLM), tutte le categorie supporteranno l’arsenale di analisi della disinformazione di PROMPT. Sarà in grado di rilevare sottili sfumature nel linguaggio dell’informazione pubblica – sfumature che potrebbero passare inosservate a occhio nudo, ma che possono alterare radicalmente il messaggio, spostandone il significato e giocando un ruolo cruciale nel plasmare la percezione e la ricezione della disinformazione nello spazio digitale.
Tags:AI, coding, disinformazione