Quando a scrivere è un algoritmo

11 Maggio 2016 • Digitale, In evidenza • by

robot

Credits: Wikimedia Commons

Da quando, ormai già due anni fa, l’Associated Press ha iniziato ad automatizzare completamente la sua produzione di articoli sui risultati economici delle aziende, gli algoritmi che scrivono automaticamente notizie a partire da dati strutturati hanno scosso l’industria delle news. Il cosiddetto giornalismo automatizzato – a cui spesso ci si riferisce con il termine, in un certo senso fuorviante, di robot journalism – funziona bene per storie basate sui fatti e di routine, per le quali sono disponibili facilmente dati affidabili, strutturati e precisi.

Oltre alle notizie finanziarie, altri esempi sempre più frequenti includono le cronache di incontri sportivi, storie di criminalità, e report basati su dati raccolti da sensori, come è nel caso del tracciamento di fenomeni sismici o dei livelli di polveri sottili nell’aria. Per queste situazioni ben definite gli algoritmi, una volta realizzati, possono creare un numero virtualmente illimitato di articoli a un costo basso, in diverse lingue, e personalizzate secondo i bisogni dei lettori. Inoltre, e questo è forse l’aspetto ancora più importante, gli algoritmi possono realizzare tutto questo più velocemente e con meno errori rispetto ai giornalisti umani.

Questi ovvi benefici economici sono coerenti con la necessità delle organizzazioni mediatiche di tagliare i costi e, allo stesso tempo, di aumentare la quantità di notizie prodotte e di farlo in modo sempre più personalizzato. Pertanto, non sorprende che lo scorso anno il World Editors Forum abbia nominato il giornalismo automatizzato come un nuovo trend delle redazioni. Inoltre, nel 2015, questa tecnologia è diventata a tutti gli effetti mainstream. Ad esempio, il podcast Planet Money di Npr ha visto uno dei più esperti reporter dell’emittente competere con un algoritmo per scrivere una notizia. Il New York Times, invece, ha pubblicato un quiz che chiedeva ai lettori di indovinare se un particolare testo fosse stato scritto da un umano o se fosse stato invece generato da un algoritmo.

In uno studio recentemente pubblicato su Journalism, abbiamo analizzato il modo in cui i lettori percepiscono le notizie generate dai “robot”. In particolare, abbiamo studiato come le persone valutino la qualità di queste news rispetto a quelle scritte dagli esseri umani. Per fare ciò, abbiamo chiesto a un totale di 968 partecipanti di leggere due articoli, uno di argomento finanziario, l’altro relativo una partita di calcio.

I testi scritti da una persona sono stati presi da un popolare sito di news tedesco, mentre le controparti generate da un software sono stati invece fornite dal Fraunhofer Institute for Communication, Information Processing and Ergonomics, che sta lavorando allo sviluppo di algoritmi per la generazione di testi. Per ciascun articolo abbiamo specificato ai partecipanti se si trattava di un testo scritto da un umano o generato da un computer. In alcuni casi, tuttavia, abbiamo deliberatamente manipolato la firma, informando i partecipanti sul reale creatore dell’articolo in modo volontariamente fuorviante. Ecco cosa abbiamo riscontrato.

Le persone hanno complessivamente preferito leggere gli articoli scritti dagli umani, piuttosto che quelli generati a computer. Un risultato che ci si poteva aspettare. È interessante, tuttavia, che questo risultato si sia avuto anche per gli articoli che in realtà erano stati generati da un algoritmo, ma che erano stati falsamente presentati come “umani”. In altre parole, il semplice far credere alle persone di star leggendo un articolo scritto da un giornalista in carne e ossa è di per sé sufficiente a far crescere gli indici di leggibilità del testo. Una possibile spiegazione di questa scoperta è che una volta che le persone leggono un articolo generato da un software – o sono indotte a pensare che lo stiano facendo -, cercano di analizzarlo più attentamente al fine di trovare attivamente segnali che sia stato un algoritmo a realizzarlo.

I partecipanti, comunque, non hanno generalmente preferito gli articoli scritti dagli umani sul piano dei contenuti. Forse sorprendentemente, queste persone hanno valutato meglio, in termini di credibilità, gli articoli automatizzati. Una spiegazione di questo risultato è che i testi algoritmici sono generalmente molto rigorosi sui numeri, il che li fa apparire come più credibili. In generale, tuttavia, le differenze nella percezione delle persone coinvolte nello studio erano abbastanza piccole, un dato in linea con i risultati di due studi simili condotti precedentemente in Danimarca e in Olanda. In un certo senso questa è la scoperta più interessante, poiché suggerisce che la qualità dei testi automatizzati sia già pari a quella degli articoli scritti dai giornalisti veri, almeno per quanto riguarda le notizie di routine.

A dire il vero, sono proprio gli articoli scritti dagli umani che spesso si presentano come se fossero stati scritti da una macchina, perché seguono convenzioni standard per la scrittura delle notizie, limitandosi a recitare i fatti, senza una narrazione o uno storytelling sofisticato. Questa, ovviamente, è anche la principale ragione per cui è facile automatizzare in primo luogo questi testi – e per la quale i lettori potrebbero non accorgersi nemmeno che stanno leggendo una storia generata da un computer. In altre parole, i giornalisti che si limitano a coprire il lavoro di routine si comportano già come macchine e, ironicamente, è proprio questo il motivo per cui possono essere facilmente rimpiazzati da degli algoritmi.

Non è dunque del tutto sorprendente che molti giornalisti percepiscano l’automatizzazione come una minaccia e che la loro copertura di questo argomento enfatizzi spesso il tema uomo vs. robot. Non c’è bisogno di dire che l’automatizzazione eliminerà alcune professioni. Tuttavia, creerà anche nuove figure professionali all’interno del processo di produzione automatica delle notizie. Per esempio, gli algoritmi per la generazione dei testi hanno bisogno di molti contenuti editoriali e di una configurazione manuale, nonché di un certo grado di manutenzione e aggiornamento, anche dopo la loro programmazione iniziale. È inoltre probabile che il giornalismo umano e quello automatizzato si integreranno strettamente, e formeranno un matrimonio uomo-macchina in cui gli algoritmi e gli esseri umani assolveranno ciascuno al compito in cui riescono meglio.

Un scenario possibile è questo: un algoritmo analizza i dati, vi trova delle possibili storie interessanti e fornisce una prima bozza su un argomento, che sarà poi arricchita dal giornalista con analisi dettagliate, interviste e reporting dietro le quinte. A questo proposito, ci siamo appena imbarcati in un nuovo progetto di ricerca per lo sviluppo di notizie automatizzate basate sulle previsioni delle prossime elezioni presidenziali statunitensi. Per questo progetto ci affidiamo ai dati del sito PollyVote.com, che è stato fondato nel 2004. Il nostro obiettivo sarà quello di utilizzare i dati di PollyVote per generare in automatico bozze di articoli, cui aggiungere reporting ulteriore e “umano”.

Per esempio, nel caso di un sondaggio, una tipica storia giornalistica cui vorremmo lavorare con questo metodo descriverebbe chi ha condotto il sondaggio e quando, la dimensione del campione, il margine di errore e ovviamente i risultati. Poi, i risultati del sondaggio verrebbero comparati a una media già acquisita, nonché a una previsione combinata che include un gran numero di informazioni provenienti da altre fonti. Insomma, la storia automatizzata non fornirebbe solo un semplice sommario di un sondaggio, ma lo contestualizzerebbe mettendolo a paragone con altre previsioni. Nel focalizzarsi sulle previsioni politiche, questo progetto porta le notizie automatizzate nell’area delle “hard news”.

Oltre che fornire pezzi su previsioni basate sui dati come servizio ai giornalisti, il nostro obiettivo è quello di studiare come utenti con differenti livelli di coinvolgimento percepiscano le notizie automatizzate nel caso di un tema così sensibile e di alto profilo.

Graefe, H., Haim, M., Haarmannm B. & Brosius, H. (2016). Readers’ perception of computer-generated news: Credibility, expertise, and readability. Journalism, Published online before print April 17, 2016, doi: 10.1177/1464884916641269. Lo studio completo è disponibile qui

 

 

Print Friendly, PDF & Email

Tags:, , , , ,