Si può distinguere un testo scientifico scritto da un umano rispetto a quello prodotto dall’intelligenza artificiale?

Questo post potrebbe apparire “fuori-tema” rispetto agli argomenti discussi in questo blog, ma in realtà affronta un problema importante. La diffusione degli strumenti dell’intelligenza artificiale generativa (ChatGPT ed altri sistemi simili) rischia di inondare le riviste scientifiche di pubblicazioni apparentemente “normali“, ma che di fatto sono fuori dal controllo di coloro che se ne dichiarano (falsamente) autori. L’intelligenza artificiale è da lungo tempo utilizzata nei laboratori di ricerca per analizzare dati scientifici di particolare complessità e non va demonizzata. Tuttavia se la “creatività” dell’intelligenza artificiale fosse utilizzata per “inventare” dati sperimentali plausibili ma in realtà inesistenti si metterebbero in discussione le basi stesse del metodo scientifico.

Oggi tutti parlano di intelligenza artificiale (anche taluni che dimostrano di non avere neppure la più vaga idea di cosa sia). L’argomento è di moda e, come al solito, assistiamo alla divisione tra “catastrofisti” che vedono nell’intelligenza artificiale la possibile causa di una prossima estinzione dell’Umanità e coloro che si limitano a evidenziarne solo i potenziali vantaggi, nascondendo i problemi sotto il tappeto.

In questo post non intendo affrontare il problema da un punto di vista generale, ma vorrei limitarmi ad un argomento molto specifico ovvero la possibilità che l’intelligenza artificiale generativa (ChatGPT ed altri sistemi simili) sia utilizzata per scrivere testi che – superato il processo di revisione – possano finire per essere pubblicati sulle riviste scientifiche.

Vorrei innanzitutto chiarire che io non sono tra coloro che demonizzano l’intelligenza artificiale. Tecnologie di questo tipo sono utilizzate ormai da molti anni dai gruppi di ricerca di tutto il mondo soprattutto quando si devono analizzare quantità enormi di dati sperimentali. Molti recenti avanzamenti nel campo della biologia, della medicina e delle scienze ambientali e climatiche (solo per citare alcuni esempi) non sarebbero stati possibili senza il supporto degli strumenti dell’intelligenza artificiale.

La faccenda diventa più complessa quando si affidano all’intelligenza artificiale compiti “generativi“. Sistemi come ChatGPT (e similari) sono in grado di generare testi partendo dall’analisi della letteratura scientifica esistente, corredandoli – se necessario – con dati sperimentali e/o immagini “plausibili” anche se del tutto inventati. Ciò apre le porte a comportamenti che rischiano di mettere in discussione le basi stesse del metodo scientifico.

Strumenti di questo tipo permettono di scrivere testi scientifici apparentemente “credibili“, ma che in realtà – invece di partire da dati sperimentali verificati per arrivare a conclusioni oggetto di dibattito scientifico – potrebbero partire da conclusioni pre-definite generando dati sperimentali inesistenti costruiti apposta per sostenerle. In generale, tramite gli strumenti dell’intelligenza artificiale generativa si potrebbe “inondare” la comunità scientifica (e – sia pure ad un diverso livello – l’opinione pubblica) di informazioni del tutto sbagliate o comunque distorte, tali da influenzare pesantemente il dibattito scientifico. Pensate alla confusione ed ai problemi che si potrebbero creare se tali strumenti fossero utilizzati da “negazionisti” di vario tipo per sostenere le loro balzane opinioni. Mi aspetto a breve che appaia il primo articolo scientifico “plausibile” scritto dall’intelligenza artificiale guidata da un “terrapiattista“.

La buona notizia è che – utilizzando un semplice software – è possibile distinguere con l’accuratezza di oltre il 99% i testi scientifici scritti da un essere umano rispetto a quelli creati da ChatGPT. Insomma, la battaglia per garantire l’integrità scientifica non è ancora persa. Anche se non è detto che la prossima release di ChatGPT, dopo aver letto l’articolo che ho appena citato, non introduca opportuni correttivi per mascherare meglio l’origine “sintetica” dei suoi elaborati.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.