Prima regola: mai fidarsi di ChatGPT. Come tutti i chatbot dotati dell’intelligenza artificiale, il programma di OpenAI simula il modo in cui gli umani si esprimono ma bisogna fare attenzione.
ChatGPT replica spesso alle richieste degli utenti con la risposta più probabile, non sempre con quella corretta. E questo deriva da come è stato sviluppato: la sua versione più recente, GPT-3, è stata addestrata a partire dal 2021 su centinaia di miliardi di parole reperite dagli archivi web Common Crawl, WebText2, Google Books1/2 e Wikipedia.
Il programma quindi non sa ma cerca tra un’infinità di informazioni e poi prova a rispondere. Tuttavia, come spiegato in un recente webinar dell’International Center for Journalists, bisogna essere consapevoli – almeno in questa versione – della propensione di ChatGPT a «riempire il vuoto» in mancanza di dati.
È bene quindi sempre verificare le informazioni. Ma come si fa a riconoscere un testo redatto da un chatbot intelligente? OpenAI ha lanciato a fine gennaio un apposito strumento, che però non è ancora perfettamente efficiente. Un esempio? Abbiamo inserito un testo redatto dal programma (nella versione originale inglese, prima che il bot stesso traducesse le sue parole in italiano) nella piattaforma di OpenAI, che non è stata in grado di riconoscere se l’articolo fosse stato scritto da ChatGPT.
Un altro programma però, GPTZero, ideato da uno studente della Princeton University, ha capito che l’articolo era stato redatto da un bot, almeno la prima volta. Esiste infatti un sito, GPT-Minus1, che permette di alterare un testo prodotto da un software intelligente abbastanza da farlo passare per il prodotto di una mente umana. Un test che GPTZero ha puntualmente fallito. Prima regola: non fidarsi.