Icona app
Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Banner abbonamento
Cerca
Ultimo aggiornamento ore 18:59
Immagine autore
Gambino
Immagine autore
Telese
Immagine autore
Mentana
Immagine autore
Revelli
Immagine autore
Stille
Immagine autore
Urbinati
Immagine autore
Dimassi
Immagine autore
Cavalli
Immagine autore
Antonellis
Immagine autore
Serafini
Immagine autore
Bocca
Immagine autore
Sabelli Fioretti
Immagine autore
Guida Bardi
Home » Tecnologia

Come funziona ChatGPT, da dove prende i dati e come scovare chi “bara” con l’intelligenza artificiale

Immagine di copertina
Credit: Hersson Piratoba

Tutte le avvertenze e i consigli per usare come si deve il programma intelligente più famoso del web

Prima regola: mai fidarsi di ChatGPT. Come tutti i chatbot dotati dell’intelligenza artificiale, il programma di OpenAI simula il modo in cui gli umani si esprimono ma bisogna fare attenzione.

ChatGPT replica spesso alle richieste degli utenti con la risposta più probabile, non sempre con quella corretta. E questo deriva da come è stato sviluppato: la sua versione più recente, GPT-3, è stata addestrata a partire dal 2021 su centinaia di miliardi di parole reperite dagli archivi web Common Crawl, WebText2, Google Books1/2 e Wikipedia.

Il programma quindi non sa ma cerca tra un’infinità di informazioni e poi prova a rispondere. Tuttavia, come spiegato in un recente webinar dell’International Center for Journalists, bisogna essere consapevoli – almeno in questa versione – della propensione di ChatGPT a «riempire il vuoto» in mancanza di dati.

È bene quindi sempre verificare le informazioni. Ma come si fa a riconoscere un testo redatto da un chatbot intelligente? OpenAI ha lanciato a fine gennaio un apposito strumento, che però non è ancora perfettamente efficiente. Un esempio? Abbiamo inserito un testo redatto dal programma (nella versione originale inglese, prima che il bot stesso traducesse le sue parole in italiano) nella piattaforma di OpenAI, che non è stata in grado di riconoscere se l’articolo fosse stato scritto da ChatGPT.

Un altro programma però, GPTZero, ideato da uno studente della Princeton University, ha capito che l’articolo era stato redatto da un bot, almeno la prima volta. Esiste infatti un sito, GPT-Minus1, che permette di alterare un testo prodotto da un software intelligente abbastanza da farlo passare per il prodotto di una mente umana. Un test che GPTZero ha puntualmente fallito. Prima regola: non fidarsi.

Ti potrebbe interessare
Tecnologia / Trump nomina David Sacks zar dell’intelligenza artificiale e delle criptovalute: un passo coraggioso nella politica tecnologica
Tecnologia / Dal 1° gennaio 2025 WhatsApp non funzionerà più su 19 modelli di smartphone: ecco quali
Tecnologia / Facebook, WhatsApp e Instagram down: le app di Meta non funzionano
Ti potrebbe interessare
Tecnologia / Trump nomina David Sacks zar dell’intelligenza artificiale e delle criptovalute: un passo coraggioso nella politica tecnologica
Tecnologia / Dal 1° gennaio 2025 WhatsApp non funzionerà più su 19 modelli di smartphone: ecco quali
Tecnologia / Facebook, WhatsApp e Instagram down: le app di Meta non funzionano
Tecnologia / Biennale tecnologia 2026: il Politecnico di Torino apre una manifestazione di interesse per curatori ospiti
Tecnologia / Come la domotica sta trasformando le abitazioni
Tecnologia / It Wallet, da oggi patente e tessera sanitaria sull’app Io
Tecnologia / Iliad in down in tutta Italia: non funzionano internet e rete telefonica
Tecnologia / Come scegliere l’hosting WordPress: caratteristiche, esigenze e funzionalità
Tecnologia / Mobilità del futuro, al Politecnico di Torino si incontrano industria e ricerca accademica
Tecnologia / La Convention “Intelligenza da vendere” all’Auditorium Parco della Musica di Roma