L’Intelligenza Artificiale aumenta il rischio fake news

L’Intelligenza Artificiale aumenta il rischio fake news

L’Intelligenza artificiale diventa sempre più intelligente, e potrebbe imparare anche a mentire. Anzi, forse lo sta già facendo, aumentando il rischio di fake news. Una delle ultime conquiste dell’Intelligenza Artificiale riguarda infatti la scrittura di testi. Si tratta di GPT2, un algoritmo generatore di testo talmente evoluto nella scrittura da farci credere che il contenuto sia “vero”. Il sistema può scrivere veri e propri articoli di giornale talmente convincenti da indurci a pensare che si tratti di un lavoro elaborato da mente e mani umane. Tanto che in un articolo sul MIT Technology Review, l’esperto di AI e robotica Will Knight riferisce che “alimentato da miliardi di parole questo algoritmo potrebbe essere usato per ingannare le persone su una scala di massa”.

“I ricercatori hanno scelto di non rendere open source il codice”

GPT-2 è stato realizzato dai tecnologi di OpenAI, il centro di ricerca no profit sull’Intelligenza Artificiale con sede a San Francisco, in California. L’algoritmo è basato su un trasformatore linguistico con 1,5 miliardi di parametri, ed è stato addestrato su un set di dati di otto milioni di pagine web. Will Knight spiega che il programma può creare resoconti di notizie apparentemente realistici su qualsiasi argomento gli venga fornito. E aggiunge quanto sia “preoccupante” la sua capacità di “ingannarci” facendo sembrare vera una fake news. L’algoritmo, scrive Knight, è “così convincente che i ricercatori hanno scelto di non rendere open source il codice”, ovvero di non diffonderlo per la preoccupazione che il sistema possa finire nelle mani sbagliate ed essere usato “in maniera impropria”.

Produzione di massa di notizie false

La preoccupazione, continua Knight, è che questo sistema di Intelligenza Artificiale possa essere utilizzato per produrre in massa notizie false. Del resto, lo stesso Jack Clark, direttore delle politiche di OpenAI, ha spiegato sempre sul MIT Technology Review, che “se questa tecnologia diventa matura, e io lo ritengo possibile in uno o due anni, potrebbe essere usata per disinformazione o propaganda”.

Generare facilmente contenuti fuorvianti, falsi o offensivi

Il sistema è stato allenato tramite un archivio da 40 GB con circa 10 milioni di articolo, riporta Adnkronos.”Abbiamo iniziato a testarlo e abbiamo scoperto rapidamente che è possibile generare contenuti maliziosi abbastanza facilmente”, afferma Jack Clark. Il modello, spiegano all’OpenAI, “è come un camaleonte: si adatta allo stile e al contenuto del testo ricevuto come input”. Ciò consente di generare contenuti realistici e coerenti su un argomento a sua scelta. Potenzialmente, quindi, GPT-2 potrebbe essere usato per generare notizie fuorvianti, impersonare altri online, riporta Computerworld, automatizzare la produzione di contenuti offensivi o falsi da pubblicare sui social media, automatizzare la produzione di spam e contenuti di phishing.