Ma alla fine cosa possiamo farcene di questa Intelligenza Artificiale?

La causa New York Times Vs OpenAI segna una tappa importante nelle relazioni tra i produttori di sistemi di AI e le aziende editoriali. In realtà, allarmi a parte, queste tecnologie sono già entrate nel processo di produzione giornalistica. Ecco alcuni casi. E alcune provvisorie lezioni da portarsi a casa

Di Francesco Gaeta
francesco.gaeta@odg.mi.it

Nel gennaio 1996 sul sito della Microsoft veniva pubblicato un articolo a firma Bill Gates intitolato Content is king, formula che negli anni sarebbe diventata una sorta di mantra manageriale. Il fondatore dell’azienda teorizzava che i contenuti sarebbero stati «l’oggetto da cui sono attesi la maggior parte dei guadagni su Internet». Sono passati quasi trent’anni e la profezia si è rivelata centrata. Così esatta che oggi chiede il conto a chi l’ha pronunciata. 

A fine dicembre 2023, il New York Times ha infatti citato in giudizio OpenAI, la società che ha creato ChatGPT e su cui Microsoft ha investito 13 miliardi di dollari. L’accusa, che sarà esaminata dal tribunale distrettuale federale di Manhattan, è di avere usato senza autorizzazione né corrispettivo economico gli articoli online della testata per addestrare il sistema di intelligenza artificiale utilizzato da Bing, il browser di Microsoft. OpenAI è cioè accusata di avere «creato prodotti che sostituiscono il Times e gli rubano pubblico». A questo si aggiunge il danno reputazionale derivante dalle cosiddette allucinazioni, cioè i dati o i fatti falsi ed erroneamente attribuiti dal chatbot alla testata stessa.

Qualunque sarà la sentenza, la causa NYT-OpenAI sarà un punto di svolta per capire quanto davvero content is king, cioè se e come, nel confronto con ChatGPT e i suoi fratelli – il mondo editoriale riuscirà a continuare a valorizzare economicamente i contenuti che produce. Quanto cioè si riuscirà a evitare che l’era dell’intelligenza artificiale generativa – quella che si prospetta come la terza rivoluzione digitale, dopo quella del web e dei social – si traduca in un altro e definitivo danno economico ai danni dell’informazione. Quella del Times sembra essere la soluzione più drastica: il muro contro muro tra editoria e l’industria dell’AI. Ma non è l’unica soluzione praticata fin qui.

Nel luglio scorso, il gruppo Associated Press e OpenAI hanno infatti firmato un accordo che traccia una strada diversa. La AP ha concesso alla società finanziata da Microsoft l’uso dell’archivio per consentire l’addestramento di ChatGPT. In cambio, OpenAI si è impegnata a sviluppare sistemi di intelligenza artificiale che possano aiutare i giornalisti del gruppo a migliorare l’efficienza, l’efficacia e l’accuratezza del loro lavoro. «Siamo lieti che OpenAI rispetti il valore della nostra proprietà intellettuale» ha affermato Kristin Heitmann, vicepresidente e chief revenue officer di AP. «AP sostiene fermamente un quadro che garantirà che la proprietà intellettuale sia protetta e che i creatori di contenuti siano equamente compensati per il loro lavoro».

In assenza dei dettagli finanziari dell’accordo – che non sono stati forniti – si può dire che potrebbe  essere questo un ponte possibile tra i due mondi: contenuti (e archivi) a pagamento e partnership tecnologiche. È quanto accaduto a dicembre 2023 anche nell’accordo siglato da OpenAI con il gruppo Axel Springer, che pubblica testate come Bild, Welt, Politico e Business Insider. ChatGPT potrà accedere all’archivio del gruppo editoriale e fornirà agli utenti sintesi degli articoli pubblicati anche dietro paywall, a patto di citare la fonte e rimandare con un link all’articolo stesso. Per Mathias Döpfner, CEO di Axel Springer, il patto segna la possibilità di «esplorare le opportunità di un “giornalismo potenziato dall’intelligenza artificiale”, per portare il modello di business del giornalismo a un gradino superiore». 

Proviamo a tirare una linea 

I grandi gruppi editoriali stanno insomma esplorando come ristrutturare le loro relazioni con i player tecnologici mettendosi al riparo dagli errori commessi alla nascita del web e dei social, che hanno segnato la fine dei tradizionali modelli di business e il declino della mediazione giornalistica per come l’avevamo conosciuta fino ad allora. Il punto chiave oggi è evitare che il contenuto diventi commodity, un bene gratuito. Per l’editoria che sceglie di non arroccarsi nel rifiuto dell’emergente, è dunque essenziale cogliere le potenzialità dei sistemi di AI per rendere più efficienti  i processi, migliorare l’accuratezza dei contenuti, raggiungere target di pubblico differenti.

È questo il punto saliente dello scambio possibile tra player tecnologici e mondo dell’informazione. Possiamo sintetizzarlo in una domanda: cosa potremo davvero farcene, noi giornalisti, dell’intelligenza artificiale? Avvertenza: la risposta più onesta da qui sarebbe che non lo sappiamo. Non lo sappiamo perché non esiste un modello affidabile per inquadrare qualcosa che si muove con una velocità esponenziale come la tecnologia AI. Dunque, per avvicinarci a una risposta, formuliamo una seconda domanda: cosa sta già accadendo nelle redazioni che usano l’intelligenza artificiale nel proprio lavoro quotidiano? Possiamo distinguere tre fasi in cui qualcosa sta accadendo.

Prima fase: la preparazione
Nella fase di preparazione di un prodotto giornalistico – raccogliere e analizzare dati, individuare temi rilevanti e punti di vista salienti per un pubblico (News Gathering) – l’intelligenza artificiale può aiutare a estrarre informazioni dai dati grezzi o a rendere omogenei dati eterogenei, cioè provenienti da fonti e metriche diverse. A dire il vero lo fa già da qualche tempo, cioè prima dell’ultima generazione di LLM (Large Language Model), quelli cioè della AI “generativa”, alla ChatGPT.  Già da anni esistono software “intelligenti”, che servono a passare da un formato a un altro attraverso sistemi di riconoscimento ottico (OCR, Optical Character Recognition) o di trascrizione da un discorso in testo scritto (speech to text). Sono strumenti che di fatto automatizzano parti della preparazione di un prodotto di informazione.

Il Breinerd Dispatch, testata locale del Minnesota, gestisce così i casi di denunce che arrivano alla polizia locale: un sistema di AI raccoglie i verbali che giungono in formato PDF alla redazione via mail, li inserisce in un database, segnala ed estrae gli incidenti degni di nota. La cosa consente un guadagno di tempo per i reporter di cronaca nera che può arrivare fino a 3 ore al giorno. 
La Michigan Radio – la radio della Università del Michigan – ha avviato invece un servizio di trascrizione in tempo reale delle sedute del consiglio comunale. Il sistema, curato da OpenAI, invia un alert ai redattori in presenza di alcune parole chiave per segnalare temi di interesse. Anche questa applicazione, chiamata Minutes, consente alla redazione un risparmio di tempo da destinare ad altre attività.
A proposito di trascrizioni, l’archivio della Reuters ha attivato fin dal 2020 un sistema di trascrizione vocale dei video storici – dal primo volo dei fratelli Wright nel 1903 a momenti significativi della Seconda Guerra Mondiale – che permette di identificare i personaggi pubblici che vi compaiono trascrivendo le parole pronunciate in 11 lingue, in modo da consentire agli utenti di avere un accesso migliore e più efficace ai contenuti.

Seconda fase: la produzione

Nella fase di produzione di un contenuto, i sistemi di intelligenza artificiale aiutano a rendere efficienti  il processo e migliorare i prodotti. Possono per esempio effettuare riassunti e sintesi di testi molto lunghi, aiutare il processo di titolazione per renderlo più aderente ai principi SEO, strutturare contenuti e linguaggio di una newsletter per renderla funzionale ai lettori che si vogliono raggiungere. Possono anche svolgere un controllo sulla qualità della scrittura, evidenziando frasi che presentano un eccesso di avverbi o di aggettivi o un numero di subordinate che rende difficile la lettura.

Si può naturalmente discutere sull’opportunità di intervenire su alcune di queste fasi, e se farlo sottragga o meno creatività al processo. Ma intanto è ciò che sta accadendo. E non solo in piccole e innovative redazioni di nerd.
Alla redazione web di Die Welt, fin dal 2020, si sono chiesti cosa sarebbe successo se un sistema avesse permesso di generare in automatico titoli ottimizzati SEO. «La composizione del titolo SEO – hanno spiegato Hanna Behnke e Sarah Lueck, che hanno seguito il progetto per conto della redazione – è un’attività di routine che sottrae tempo al processo di scrittura. I titoli SEO devono essere grammaticalmente corretti, informativi, catturare l’attenzione e generare traffico senza essere “clickbait” o “fake news”». Da qui l’idea di farsi aiutare da un sistema di AI. «Oggi siamo felici di dire che siamo riusciti a costruire un sistema pilota che produce risultati all’avanguardia ed è attualmente usato (ndr. anno 2020) nella redazione di WELT».

Dall’aprile del 2022, il Toronto Star ha invece automatizzato la confezione  di alcuni articoli, quelli relativi alle irruzioni con scasso nelle case della città. I dati sono del Toronto Police Service e gli articoli – da cui sono eliminati i dati sensibili come nomi e indirizzi – seguono tutti lo stesso format: nel titolo viene riportato il numero di effrazioni in un distretto nell’ultima settimana, nel primo paragrafo viene fornito il numero totale di episodi dall’inizio dell’anno, con l’incremento o il decremento percentuale rispetto all’anno precedente. Nell’ultimo paragrafo viene sempre chiarito che «i recenti dati sulla criminalità sono preliminari e soggetti a modifiche in seguito a ulteriori indagini della polizia». Il Toronto Star pubblica circa sei storie a settimana su questo argomento, coprendo settimanalmente i sei distretti della città.
Per il giornale non si tratta di una novità. In precedenza, aveva automatizzato la produzione di notizie relative alle chiusure delle autostrade, ai prezzi delle case e alle ispezioni dei ristoranti. Per tutti questi casi si pone lo stesso tema: se a un giornale locale spetta selezionare cosa è rilevante per il proprio lettore, non c’è il rischio che automatizzare tutto porti a rendere tutto – cioè nulla – rilevante?
La risposta, come vedremo meglio più avanti, è: dipende. Come abbiamo ormai imparato, l’innovazione è neutra. Il punto decisivo è come i singoli giornalisti e le aziende editoriali gestiranno questo tipo di automazione. Se per risparmiare tempo da destinare a funzioni a più alto valore aggiunto (esempio: analisi sui dati) oppure per inserire un pilota automatico e rinunciare a una lettura critica che i dati così efficentemente raccolti possono consentire. Al Wall Street Journal hanno deciso per esempio di automatizzare il trattamento dei risultati dei mercati di borsa e gli indici dei prezzi che appaiono quotidianamente sull’home page della testata online. A questi report di sintesi creati in automatico, si affiancano ovviamente le analisi dei giornalisti e dei commentatori esperti di finanza, che hanno più dati a disposizione e più velocemente rispetto a un tempo.

Terza fase: l’ingaggio
Nella fase di distribuzione dei contenuti (News distribution), l’AI serve a rafforzare l’ingaggio con il proprio pubblico o ad allargarne il perimetro, per esempio fornendo contenuti personalizzati per un segmento demografico (tipicamente età e luogo di residenza) o intercettando topic trend sui social su cui sviluppare punti di vista inediti e distintivi.

Al New York Times hanno appena creato la figura del direttore per le iniziative di intelligenza artificiale, chiamando un giornalista molto noto come Zach Seward, fondatore e direttore di Quarz. Ma già dal 2017 la testata affianca ai 15 giornalisti del Community Desk che ogni giorno moderano i commenti agli articoli un sistema di AI chiamato Perspective.
Perspective assegna a ogni commento un punteggio in base a una serie di parametri, per classificare quelli che si presentano più tossici o osceni. La cosa avviene in base al contenuto del testo, e non all’identità del commentatore. Perspective identifica anche frasi specifiche e potenzialmente problematiche. Sulla dashboard del Community Desk appaiono i punteggi e le frasi potenzialmente problematiche, oltre a informazioni sul contesto relativo all’articolo commentato. La moderazione risulta più rapida e il numero di commenti moderati e approvati è molto maggiore rispetto a quanto accadeva nell’era della moderazione interamente manuale. È anche rilevante – per il valore  che la testata attribuisce al compito che assolvono – il fatto che i moderatori sono tutti giornalisti senior, con diversi anni di esperienza al Times e una conoscenza approfondita degli standard di qualità del giornale.

Questo modello ibrido, che combina intelligenza artificiale con l’intervento e la valutazione umana, pare una buona sintesi di un modo di usare l’AI al servizio del giornalismo. Come dicono gli stessi giornalisti del New York Times che hanno seguito il progetto «Perspective non è perfetto come non lo sono i moderatori umani. Ma creare un sistema che massimizzi il numero di storie del Times che consentono commenti, promuovendo al contempo un forum di discussione sano e sicuro, richiedeva dei compromessi». Un modello completamente umano limiterebbe il numero di storie aperte ai commenti e un modello di apprendimento automatico non sarebbe in grado di moderare secondo gli standard del Times.

Qualche (incerta) conclusione
Forse è questa una strada: aumentare efficienza e produttività (e velocità) per liberare tempo ed energia da destinare a fasi del processo giornalistico a più alto valore aggiunto. 
Come ogni innovazione radicale, i nuovi sistemi di intelligenza artificiale creeranno un prima e un dopo nel nostro modo di lavorare e nella qualità del nostro lavoro. Non basterà conoscere e usare gli strumenti perché i contenuti siano ancora “sovrani”. Se le aziende editoriali trascureranno il fattore umano, se non riusciranno a valorizzare le competenze delle proprie redazioni ibridandole con il fattore tecnologico perderemo qualcosa in più di una occasione. 
Privilegiare il fattore umano significa continuare ad avere il controllo dell’agenda setting, avere percezione dei bisogni del pubblico interpretandoli, che è cosa diversa dall’assecondarli. Significa sapere contestualizzare, cioè sapere creare connessioni tra dati e fatti, avere senso storico e formulare ipotesi sugli esiti dei fatti che si analizzano. Significa ancora essere trasparenti sulle fonti e sui dati ma anche sul processo, cioè rendere il giornalismo che si fa una cucina a vista a disposizione del lettore, eventualmente scusandosi per gli errori che inevitabilmente si commettono.
Tutto questo non è altro che buon giornalismo. L’intelligenza artificiale alza l’asticella di tutto questo. È un’occasione per scegliere se vogliamo continuare a farlo bene, con cura.

      

Lascia un commento

Iscriviti alla newsletter per non perdere tutti gli aggiornamenti