Un recente report di NewsGuard ha rivelato l’esistenza di una nuova generazione di siti di notizie interamente gestiti dall’Intelligenza Artificiale. Questi “NewsBot” stanno diffondendo disinformazione e fake news in maniera massiccia, generando molta preoccupazione per il futuro dell’informazione online.
Allarme disinformazione: boom di siti con notizie e immagini false
Il tema della disinformazione è un argomento sempre più rilevante e attuale nel panorama globale, in particolare con l’avvento dell’Intelligenza Artificiale. Da maggio 2023 a febbraio di quest’anno, l’associazione NewsGuard, nota per valutare l’affidabilità dei siti di notizie, ha identificato 725 siti web che generano contenuti senza alcuna supervisione umana. Questi siti, noti come “NewsBot”, producono notizie su vasta scala utilizzando modelli di linguaggio basati sull’AI, diffondendo informazioni false in ben 15 lingue diverse, tra cui l’italiano. I nomi di questi siti richiamano generalmente quelli di testate giornalistiche, come Biz Breaking News o Daily Business Post, ma celano un’enorme macchina di disinformazione.
Questi siti generati dall’AI non solo diffondono fake news, ma spesso utilizzano immagini manipolate per rafforzare le loro narrazioni. Tra i casi più eclatanti, c’è quello di un sito gestito dal governo cinese che ha utilizzato informazioni generate dall’Intelligenza Artificiale per sostenere la teoria infondata che gli Stati Uniti stiano gestendo un laboratorio di armi biologiche in Kazakistan. Questo esempio dimostra quanto possa essere pericolosa la combinazione AI e disinformazione, soprattutto quando viene utilizzata per scopi politici.
NewsBot: cosa sono e quali minacce comportano?
I NewsBot rappresentano un’evoluzione delle cosiddette “content farm”, siti web di bassa qualità che pubblicano articoli clickbait per generare entrate pubblicitarie. Tuttavia, a differenza delle content farm tradizionali, questi nuovi siti utilizzano l’AI per produrre un volume incredibile di contenuti su vari argomenti, dalla politica alla salute, dalla finanza alla tecnologia, fino all’intrattenimento. Alcuni di questi siti arrivano a pubblicare centinaia di articoli al giorno, con testi caratterizzati da un linguaggio ripetitivo e banale, segni distintivi della scrittura automatizzata.
La diffusione dei NewsBot sta sollevando questioni importanti, non solo riguardo alla qualità dell’informazione online, ma anche sul fronte del copyright. Con l’aumento del volume di contenuti generati dall’AI, gli editori dovranno affrontare nuove sfide per proteggere i loro “prodotti intellettuali”. Ma la vera sfida potrebbe essere quella del lettore medio, che rischia di trovarsi sempre più in difficoltà nel distinguere i contenuti generati dall’Intelligenza Artificiale e gli articoli scritti dagli esseri umani. Questo nuovo probabile scenario richiederà una maggiore attenzione da parte di tutti.
Come riconoscere i contenuti prodotti con l’AI?
Fortunatamente, esistono alcuni “trucchetti” per identificare i contenuti generati dall’AI. Ad esempio, molti dei siti monitorati da NewsGuard hanno pubblicato articoli contenenti messaggi di errore tipici dell’Intelligenza Artificiale, come frasi incompiute o tag visibili che rivelano l’origine automatizzata del testo. Un altro aspetto tipico dei contenuti scritti con l’AI riguarda il linguaggio, generalmente ripetitivo e ridondante, caratterizzato da una prosa semplice e banale. Ma è possibile che con il passare del tempo anche l’Intelligenza Artificiale compia ulteriori progessi, avvicinandosi maggiormente alla scrittura di un professionista.
Il futuro dell’informazione online si presenta quindi molto incerto. Se da un lato l’AI si sta affermando come “co-pilota” nella produzione dei contenuti online, sarà fondamentale che sia il pubblico, sia il mercato, sappiano distinguere tra informazione di qualità e rumore di fondo. In questa nuova era digitale, infatti, la trasparenza e la consapevolezza saranno le chiavi per mantenere l’integrità dell’informazione e contrastare il fenomeno della disinformazione.