“La verità ha un linguaggio semplice e non bisogna complicarlo”: con queste parole il noto drammaturgo greco Euripide definiva uno dei concetti più discussi della storia e, con il passare dei secoli, la stessa discussione si è accesa ancora di più fino ad arrivare ad un punto quasi critico all’interno della cosiddetta “AI Age”. La causa scatenante dietro allo sviluppo di questo scenario? Le fake news, ovvero le classiche “bufale” che, stando ad una serie di ricerche condotte sulle principali testate internazionali da Espresso Communication in vista dell’AI Week in programma dall’8 al 12 aprile, sono motivo di ansia e preoccupazione per i cittadini di tutto il mondo. Le prime conferme in merito giungono da una recente indagine condotta su scala globale dal The Guardian, secondo cui il fenomeno coinvolge quasi 9 persone su 10 (85%). Stando, invece, ad un’ulteriore ricerca effettuata dall’Università di Oxford, che prende in analisi solo UK, Stati Uniti e Germania, la percentuale sfiora il 60%. E ancora, El Paìs specifica che miliardi di persone in tutto il mondo, nel corso dell’anno corrente, dovranno prendere decisioni, soprattutto in occasione di eventi specifici come le elezioni politiche, con l’ombra delle fake news e, di conseguenza, risultare influenzati da loro stesse nel momento in cui saranno chiamati a prendere una decisione. E in Italia? Stando a quanto indicato da Eurispes, quasi 7 persone su 10 si considerano preoccupate dallo scenario attuale, in particolar modo, per colpa delle notizie pubblicate e diffuse sui social media. La situazione generale risulta ancora più allarmante una volta scoperti i risultati dell’indagine elaborata dal World Economic Forum e ripresa da Irish News: l’intelligenza artificiale, a causa delle nuove piattaforme basate sulla Generative AI, amplificherebbero la diffusione di contenuti fake e, di conseguenza, la disinformazione online.
Ora una domanda sorge spontanea: esiste una soluzione per invertire un trend, giorno dopo giorno, sempre più preoccupante? La risposta è sì ed è la tanto discussa intelligenza artificiale. Com’è possibile che diventi un alleato della verità? In primis, lo spiega Medium: l’AI, attraverso l’elaborazione del linguaggio naturale e il deep learning, è in grado di analizzare il contenuto, il sentiment e la struttura dei singoli articoli al fine di rilevare modelli e incoerenze che potrebbero indicare falsità o imprecisioni. Un esempio concreto viene offerto dal Massachusetts Institute of Technology, i cui ricercatori hanno sviluppato un sistema AI centered in grado di determinare la veridicità di una news con una precisione pari al 70%, valutando il pezzo sia da un punto di vista linguistico sia analizzando il contesto storico di appartenenza. Ulteriori indicazioni in merito giungono dall’Italia e, nello specifico, da esperti del Bel Paese, ovvero Giacinto Fiore e Pasquale Viscanti, fondatori della community Intelligenza Artificiale Spiegata Semplice e organizzatori dell’AI Week, evento di punta del settore in cui si parlerà molto della tecnologia del momento applicata all’universo informativo in presenza di ospiti internazionali: “L’AI non sarà mai un nemico dell’umanità e, di conseguenza, non lo sarà nemmeno dell’informazione. Anzi, più andremo avanti, più sarà essenziale affidarsi all’artificial intelligence perché, con l’ausilio di algoritmi e piattaforme ad hoc, può identificare esagerazioni, pregiudizi e altri indicatori di disinformazione. In questo modo, la tecnologia diventa un vero e proprio «artificial detective» in grado di preservare la salute mediatica ed informativa globale. Quello delle fake news, relazionate all’AI, è un tema molto attuale e, proprio per questo, verrà definito nel migliore dei modi in occasione dell’ormai imminente edizione dell’AI Week, in programma dall’8 al 12 aprile con due giornate in presenza al Palacongressi di Rimini, con i maggiori esperti del settore riuniti per parlare di questo tema e di molto altro”.
Fanno seguito alle parole di Fiore e Viscanti, nuovi spunti interessanti sul tema fake news e artificial intelligence, questa volta offerti da Virginia Padovese, Managing Editor and VP Partnerships, Europe di NewsGuard: “Imparare a conoscere le enormi potenzialità dell’intelligenza artificiale è oggi fondamentale. Affinché l’uso degli strumenti che abbiamo a disposizione sia proficuo, dobbiamo capirne non solo i benefici ma anche i rischi. Pensando ai rischi legati alla disinformazione, sia per le aziende che per i cittadini, risulta importante maturare la consapevolezza che questi rischi esistono. Serve investire nella formazione per imparare a riconoscere le caratteristiche dei contenuti manipolati e serve allocare risorse per lo sviluppo di strumenti in grado di rilevarli. Si tratta di identificare e comprendere il sottile equilibrio tra nuove potenzialità e pericolosi limiti: dobbiamo essere aperti al nuovo e disposti a sperimentare ciò che l’IA ci offre capendo bene quali vantaggi possiamo trarre e quali misure di sicurezza dobbiamo mettere in atto.”
Partendo dalle dichiarazioni degli esperti, l’intelligenza artificiale può essere applicata in maniera strategica e mirata al fine di contrastare la diffusione della misinformation. In primis, l’AI, una volta integrata in appositi algoritmi, è capace di analizzare la fonte di provenienza dei singoli articoli, valutandone l’accuratezza. In caso di feedback negativo sull’attendibilità del website di riferimento, come provato anche dall’Università di Harvard, propone una serie di soluzioni alternative a seconda della ricerca che l’utente è interessato a portare avanti. In secondo luogo, la tecnologia del momento pone la lente d’ingrandimento sul nome dell’autore che si è occupato della stesura del pezzo: a questo proposito, caricando l’articolo su piattaforme ad hoc, è possibile scansionare lo scenario strutturato, partendo da una banca dati smisurata, per individuare eventuali anomalie e, soprattutto, distinguere i giornalisti in carne ed ossa dai cosiddetti fake reporter, ovvero creatori di news inesistenti. E ancora, un altro aspetto di assoluta rilevanza per l’AI in ottica rilevamento delle news false riguarda lo studio del contesto storico. Infatti, esistono sistemi che esaminano le notizie, confrontando gli spunti contenuti in loro stesse con lo scenario generale e, a seconda del risultato finale, decidono se consigliarle ai singoli utenti come spunti interessanti da leggere oppure no. E le immagini e i video presenti negli articoli sono soggetti ad analisi? Ovviamente sì: esistono app AI centered che, con l’aggiunta di filigrane digitali impercettibili all’occhio umano, capiscono se un’immagine è realizzata da professionisti in carne ed ossa oppure da artificial platforms poco consigliate. Lo stesso lavoro può essere fatto sui video, scansionando la voce delle persone o soggetti presenti all’interno della riproduzione.
Ecco, quindi, il vademecum AI addicted degli esperti per analizzare le news presenti sul web e verificarne i livelli di autenticità:
Verificare la fonte: algoritmi dotati d’intelligenza artificiale valutano l’autenticità della fonte di un determinato articolo, dando in seguito un feedback utile all’utente di riferimento.
Lasciarsi guidare dall’AI: nel momento in cui un website viene ritenuto obsoleto o fake, l’artificial intelligence consiglia una serie di soluzioni alternative per effettuare le ricerche desiderate.
Identificare l’autore: piattaforme AI centered scansionano l’articolo in questione e, attraverso una banca dati di riferimento, rilevano, e approvano, solo i pezzi generati da reporter in carne ed ossa.
Analizzare il contesto storico: confrontando gli spunti proposti da una news in particolare con quelli dello scenario di riferimento, la tecnologia consiglia/sconsiglia la lettura del contenuto agli occhi del reader coinvolto.
Scansionare immagini e video: con l’aggiunta di filigrane digitali impercettibili all’occhio umano e il controllo accurato delle voci nelle singole riproduzioni, l’AI è capace di valutare con precisione l’attendibilità di ogni singolo approfondimento.