“The Rise of the Robot Reporter” era lo spaventoso titolo di un articolo del New York Times dello scorso anno in cui si faceva notare come un terzo dei contenuti pubblicati da Bloomberg News fosse stato generato dal sistema automatizzato dell’azienda, chiamato “Cyborg”.
Spaventoso almeno per i giornalisti, molti dei quali temono da tempo di finire in un mucchio di rottami, sostituiti da un algoritmo: una preoccupazione crescente chiamata la nuova “ansia da automazione”. Quando quest’anno il magazine britannico Press Gazette ha chiesto ai suoi lettori se vedessero i robot e l’intelligenza artificiale (IA) come una minaccia o un’opportunità, più di 1.200 di questi (69%) hanno risposto “minaccia”.
Ma non c’è modo di sfuggire a questo sviluppo. Lo scorso dicembre, il think tank Polis della London School of Economics (LSE) ha ospitato il suo primo festival dedicato all’intersezione tra giornalismo e intelligenza artificiale. Il report pubblicato da Polis lo scorso anno aveva rilevato che delle 71 organizzazioni intervistate in 32 paesi, metà utilizzava già l’intelligenza artificiale per la raccolta di notizie, due terzi per la produzione di contenuti e metà per la distribuzione di questi.
Qui in Regno Unito, ad esempio, la Press Association utilizza un software per produrre storie basate sui dati localizzati e su larga scala, mentre il Times ha utilizzato un software IA per creare newsletter targetizzate sugli interessi dei suoi abbonati digitali.
Giornalista umano contro giornalista R2D2
Non sorprende che gran parte dell’attenzione dei giornalisti e delle giornaliste sia incentrata sul come l’IA potrà influenzare le loro pratiche lavorative – saranno resi obsoleti dall’equivalente giornalistico del droide R2D2 di Star War? Ma, dato che l’IA giocherà un ruolo sempre più importante nelle notizie – e il report di Polis è chiaro che ciò accadrà – che dire delle questioni etiche che questo cambiamento solleva?
In qualità di co-investigatrice del progetto DMINR AI qui alla City University di Londra, il nostro approccio è stato quello di coinvolgere i giornalisti sin dall’inizio, in modo da poter progettare uno strumento che sarà loro utile. Siamo entrati in diverse redazioni per parlare con chi ci lavora e osservare come operano, come usano l’intelligenza artificiale e le loro preoccupazioni al riguardo. Facendo ciò, abbiamo anche dovuto assicurarci che il nostro strumento, come altri, consenta loro di utilizzare l’IA in modo etico.
AI ed etica
Una delle prime questioni etiche identificate nel report di Polis è la preoccupazione delle redazioni sul fatto che l’IA possa essere solo un modo per risparmiare denaro. In realtà, le questioni aperte sono molte di più. Mentre i pregiudizi nel giornalismo sono stati ampiamente dibattuti (si veda, ad esempio, il lavoro di Michael Schudson), che dire dei pregiudizi degli algoritmi?
Questi possono dipendere da problemi tecnici nell’immissione dei dati, ad algoritmi che riflettono pregiudizi troppo umani su razza e genere – come esposto dalla giornalista Julia Angwin. Angwin ha scoperto che un software, utilizzato dal sistema di giustizia penale degli Stati Uniti per prevedere la possibilità che gli imputati potessero essere recidivi, in realtà discriminava i neri. Sono state inoltre sollevate preoccupazioni in relazione alle filter bubble e l’IA, il bias di conferma e persino la creazione di deepfake.
Ovviamente questa non è una novità, come chiarisce un recente articolo dettagliato della Columbia Journalism Review sulla World’s Fair di New York del 1964. In realtà, l’intelligenza artificiale è stata spesso spinta come un modo per produrre un giornalismo più etico. Questa tecnologia potrebbe effettivamente aiutare a scoprire connessioni che altrimenti sarebbero state perse? E il dibattito in corso sui problemi relativi ai pregiudizi dell’intelligenza artificiale potrebbe significare che le stesse redazioni devono essere molto più trasparenti e aperte con il loro pubblico su ciò che stanno facendo?
Il tocco umano
Jeff Jarvis ha coniato già una decina di anni fa il concetto di “process journalism”, da contrapporre a che “product journalism” – un concetto che sottolinea la cultura in evoluzione del giornalismo in cui i giornalisti hanno imparato a coinvolgere e aggiornare le loro storie attraverso le interazioni con il loro pubblico. Con un atteggiamento aperto nei confronti dell’intelligenza artificiale e sul suo utilizzo, sarà possibile ripristinare la fiducia in calo nei media nel Regno Unito come altrove?
È certamente vero che fin qui ci si è concentrati maggiormente sui potenziali problemi attinenti all’intelligenza artificiale e meno sui suoi aspetti positivi. Ciò rende ancora più importante che i ricercatori e gli sviluppatori interagiscano con i giornalisti sin dall’inizio per garantire che queste questioni etiche vengano affrontate. Come ha affermato un intervistato del report di Polis: “L’errore più grande che ho visto in passato è stato considerare l’integrazione della tecnologia in un contesto sociale come una semplice domanda tecnica. In realtà è un processo sociale complesso”.
Per quei giornalisti che soffrono ancora di “ansia da automazione”, ci sono varie ragioni per essere ottimisti. Come scrisse Carl Gustav Linden in un paper per Digital Journalism nel 2015, forse la domanda che dovremmo porci è: perché dopo decenni di automazione ci sono ancora così tanti lavori umani nel giornalismo? La risposta: nonostante 40 anni di automazione, il giornalismo come industria creativa ha mostrato resilienza e una forte capacità di adattamento e mitigazione delle nuove tecnologie. Siamo quindi ancora molto lontani dallo scenario in cui un giornalista R2D2 sostituirà un reporter umano.
Articolo tradotto dall’originale inglese
Tags:automazione, City University London, IA, innovazione, intelligenza artificiale, Polis, Tecnologia