L’approdo dell’intelligenza artificiale nelle redazioni porta con sé un grande potenziale per un giornalismo più smart. Ma a dire il vero, mentre le redazioni sperimentano sempre di più con tecnologie come il machine learning il processing del linguaggio naturale, queste ultime si scontrano anche con alcune problematiche pratiche ed etiche. Una recente conferenza alla Columbia University di New York si è data l’obiettivo di esplorare questi potenziali scenari.
Quando l’intelligenza artificiale fallisce
Il successo si costruisce di solito sugli esperimenti falliti e questi sono certamente molto frequenti nell’attuale esperienza con l’intelligenza artificiale nel giornalismo. Marc Lavallee, capo del team ricerca e sviluppo AI del New York Times, ha citato proprio di un recente esperimento del suo giornale in questo campo che non è andato secondo i piani. Parlando al panel “AI in the Newsroom: Technology and Practical Applications” Lavallee ha raccontato di come il suo team abbia programmato un software di computer vision affinché riconoscesse i membri del Congresso durante la cerimonia di insediamento di Donald Trump.
“Per qualche motivo”, ha detto Lavallee, “[il software] credeva che tutti gli uomini bianchi di mezza età fra il pubblico assomigliassero ad Al Franken (un Senatore Usa)”. Alla luce di simili esperienze, ha aggiunto, “ci stiamo approcciando a questo ambito con una sana dose di scetticismo”. La realtà dell’intelligenza artificiale nel giornalismo può però davvero essere all’altezza delle aspettative del settore?
Altri speaker, invece, si rammaricavano di come, nonostante l’attuale hype pubblicitario sulle tecnologie potenziate con l’intelligenza artificiale, le reali applicazioni non fossero ancora soddisfacenti. Sasha Koren, editor del Mobile Innovation Lab del Guardian, ha parlato ad esempio dei chatbot come di “un’esperienza non entusiasmante”. A dispetto di tutte le promesse secondo le quali “essi converseranno con te come se fossero umani”, ha aggiunto Koren, tutto ciò che “fanno, alla fine, è porre delle query a un database”.
Man mano che l’intelligenza artificiale in redazione guadagna importanza, altrettanto accade all’influenza delle aziende commerciali che cercano di vendere prodotti personalizzati alle redazioni. Meredith Whittaker, responsabile del gruppo di ricerca Google Open Source e co-fondatrice di AINow, ha invece parlato della tendenza a “naturalizzare la tecnologia”, in modo che sembri inevitabile e indipendente, quando in realtà essa è sempre progettata da persone in carne e ossa. Le reali capacità di questi software, ad esempio, potrebbero non essere sempre chiare, specialmente perché alcuni sviluppatori non hanno familiarità con le caratteristiche e gli standard peculiari del giornalismo.
Quello che manca nella conversazione sul giornalismo e l’intelligenza artificiale, ha detto Whittaker, è il chiedersi se e quanto le promesse delle aziende commerciali si possano dimostrare all’altezza della realtà. Questo è importante perché questi sviluppatori di artificial intelligence sono anche venditori “che non ci danno accesso agli algoritmi, che legalmente e per un buon numero di ragioni non possono darci accesso ai dati, che danno per scontato che i nostri dati di input si accordino sempre con quelli che loro usano per gli algoritmi e che fanno promesse sull’efficacia in un settore che non potrebbero comprendere del tutto”.
Intelligenza artificiale e l’etica
Le questioni etiche hanno invece avuto un ruolo centrale nel panel “Exploring the Ethics of AI Powered Products”. “Ci sono tante cose che vorremmo misurare”, ha detto Jerry Talton di Slack a questo proposito. Talton ha menzionato l’esempio della sua azienda, che ha provato a costruire modelli predittivi che aiutassero gli elementi più importanti delle conversazioni online fra colleghi a salire in cima a queste ultime. Ma, ha aggiunto, dato che questi modelli possono solo mettere in luce delle correlazioni, la vera sfida etica sta nel “capire il gap fra le cose che possiamo effettivamente prevedere e ciò per cui stiamo usando tali cose come semplici proxy”. Il pericolo implicito, nell’esperimento di Slack, è che i modelli predittivi diano false certezze sulle quali stabilire che alcuni pezzi di informazione siano importanti a danno di altri.
A queste osservazioni si è aggiunta anche Angela Bassa di iRobot: “la matematica è disinteressata”, ha detto, intendendo che i modelli matematici non hanno alcun tipo di pregiudizio. Ciò che fa la differenza, però, è come i dati vengono effettivamente raccolti. Bassa ha puntato il dito contro il falso mito dei dati puliti. “Ci piace immaginare che essi vengano raccolti in modo meravigliosamente e assolutamente sicuro”, ha spiegato, “e che siano ricercatori con tute anti-contaminazione ad andare sul campo e raccolgano i dati. Non è così che funziona”.
I limiti dell’intelligenza artificiale
Riconoscere i limiti di questa tecnologia è stato un altro tema molto dibattuto durante la conferenza. Madeleine Elish, ricercatrice alla Columbia University e a Data&Society, ha sottolineato a questo proposito che, solo perché l’intelligenza artificiale sta automatizzando certi compiti, non si dovrebbe per questo considerarla come pienamente autonoma: “è importante rendersi conto che la tecnologia impiegata può automatizzare un compito, ma in settori molto peculiari”. Questo diventa una questione etica, ha aggiunto, “quando iniziamo a dare troppo potere all’idea di un programma di software e ci dimentichiamo tutti i tipi di azioni che gli esseri umani compiono sui differenti aspetti che vanno a costruire questi sistemi”.
Questo articolo è il secondo di una serie dedicata all’intelligenza artificiale nel giornalismo. Leggi anche: “L’intelligenza artificiale entra in redazione”. Traduzione dall’originale inglese a cura di Giulia Quarta
Tags:AI, artificial intelligence, automazione, Columbia University, intelligenza artificiale