Professore, lei insegna Political Science alla Columbia University e al City College di New York (CUNY), come docente, come si relaziona a ChatGPT, DALL-E, Writesonic e agli altri programmi intelligenti?
«Ho fatto parte di una commissione appositamente costituita nella mia università per studiare e proporre come approcciarsi a questi software in ambito didattico universitario».
Cosa avete concluso?
«Esistono due tipi di approccio. Quello dominante è volto a impedire agli studenti di ricorrere a tali programmi, incentivando le attività in presenza».
Bisogna vietarli, quindi.
«È importante che gli studenti continuino a imparare a scrivere e a ragionare senza affidarsi all’intelligenza artificiale. Ma non può esaurirsi tutto qui: vietarla non è sufficiente».
C’è un altro approccio?
«Gli studenti devono anche imparare a utilizzare i programmi intelligenti. Il problema è come li usi».
Può essere uno strumento utile?
«Certamente ma bisogna imparare a usarlo senza rinunciare ad altri. Tanto che l’ho integrato nei miei corsi».
Come?
«Propongo ai miei studenti un esercizio: assegno un compito e loro devono farlo fare a ChatGPT. Quindi chiedo loro di fare una critica di quanto scritto dal programma. Devono spiegare in cosa il chatbot ha sbagliato o meno e poi devono evidenziarne i punti di forza e di debolezza. Alla fine discutiamo in aula su come usare questi strumenti in modo efficace».
Perché non ne ha vietato l’utilizzo?
«Come ho detto ai miei studenti, sarebbe inutile a lungo andare. È come chiedere loro di venire all’università a cavallo, sarebbe una battaglia persa contro la metropolitana di New York».
Quali sono i suoi punti di forza?
«ChatGPT è bravissimo nel costruire la struttura di un discorso e nell’impostare un ragionamento, qualcosa in cui gli studenti trovano sempre maggiori difficoltà, come ho notato sia negli Stati Uniti che in Italia».
E i suoi limiti?
«Il suo punto debole è la creatività, l’intuizione e soprattutto la profondità di pensiero e questo mi ha un po’ deluso».
Perché?
«Quando ho cominciato a interagire con il chatbot pensavo che fosse più bravo di quanto in realtà non sia e questo è un rischio».
Non è meglio così?
«Da un lato è evidente che, come strumento, è ancora inadeguato a sostituire una persona, anche se migliorerà rapidamente. Il rischio però è che affidarsi al programma così com’è ora possa disincentivare gli studenti a scrivere e a ragionare in modo più profondo e complesso ed è per questo che bisogna imparare a usarlo, senza rinunciare ai propri strumenti intellettivi».
Non è un pericolo per la creatività, insomma.
«Non ancora ma è così potente che presto potrebbe diventarlo. Nel breve periodo, credo che possa diventare utile per chi saprà sfruttarne le potenzialità.
Mi fa un esempio?
«Più che esserne sostituiti, gli accademici, i giornalisti o gli esperti di comunicazione potrebbero diventare le figure più capaci a usare i programmi intelligenti, così come oggi sono i più competenti nell’uso dei software di video-scrittura».
Cosa l’ha sorpresa di più del programma?
«La cosa più paradossale che ho notato è che a volte inventa, ma dando sempre risposte plausibili».
Si spieghi.
«Ho scritto un libro sul tecnopopulismo (Technopopulism: The New Logic of Democratic Politics, ndr) e ho chiesto a ChatGPT una bibliografia sull’argomento. Ha citato autori pertinenti, inventando però una serie di articoli e collaborazioni. Tutte verosimili ma non reali».
Ha un suo lato creativo.
«Ma non ha profondità. Riempie i vuoti, per lo più di luoghi comuni».
Rischiamo un’ulteriore diffusione di fake news?
«Come accademico non mi sento di fare previsioni future. Per conoscerne a pieno i rischi, i limiti e le potenzialità, ci vorrà del tempo perché tutti stiamo ancora imparando a usarlo. È chiaro che se inventa i fatti, non è un buon segno. Inoltre, come hanno rilevato anche i miei studenti, codifica i pregiudizi di chi l’ha sviluppato».
Cioè i luoghi comuni che esprime non sono suoi.
«Esatto! Se qualche mese fa avessi chiesto a ChatGPT un componimento pro-Trump, il programma si sarebbe rifiutato mentre non aveva problemi a produrre un testo pro-Biden. Ora è stato “corretto”, ma allora – a livello di idee politiche – appariva come un democratico liberale della West Coast, all’incirca il profilo di chi l’ha programmato».
Questo dimostra che ha ancora bisogno di un intervento umano.
«Dimostra che è imprevedibile. Non solo: la cosa più inquietante è che assorbe tutto ciò che può dalle persone con cui interagisce. In un’intervista a ChatGPT pubblicata dal New York Times, il programma mostrava un attaccamento all’utente, quasi una sorta di innamoramento».
Anche questo comportamento però è stato “corretto”.
«Ma soltanto in seguito. Tutti questi interventi ex post mostrano come in realtà non abbiamo alcun reale controllo su questo strumento. Come dire che non abbiamo idea delle forze che abbiamo evocato».
A proposito di chi controlla l’intelligenza artificiale, dietro questi programmi ci sono sempre aziende private. Che conseguenze può avere questo?
«È quello che è già successo con i colossi tecnologici. Si profilano due scenari: il primo è quello di Google».
Cioè?
«Un monopolio di fatto. Un programma si rivelerà migliore degli altri e tutto il mondo convergerà progressivamente sullo stesso software intelligente».
L’altro scenario?
«Una polarizzazione, come nel comparto televisivo degli Stati Uniti».
Ossia?
«Ci sarà il ChatGPT di destra e quello di sinistra. Quello americano, quello europeo e quello cinese. Una sorta di pluralismo dell’intelligenza artificiale».
La proliferazione non è un rischio?
«Al contrario, mi sembra lo scenario meno inquietante. Pluralizzare i soggetti dovrebbe rendere manifesti i limiti di ciascun programma. Si dovrebbero controllare a vicenda».
Quindi l’intelligenza artificiale “Made in China” è un fatto positivo?
«A patto che non diventi un monopolio. E lo stesso discorso vale per i chatbot sviluppati negli Usa e in altre parti del mondo. Se diversi attori politici e differenti interessi economici producono una pluralità di strumenti, questi dovrebbero compensarsi a vicenda. Poi sta all’intelligenza degli utenti saperli sfruttare».
Lei immagina una competizione tra programmi.
«Come diceva Montesquieu, “Il faut que le pouvoir arrête le pouvoir” (il potere limiti il potere, ndr). Abbiamo creato un potere immenso con cui dobbiamo fare i conti».
Dobbiamo averne paura?
«Il fatto è che ormai è impossibile impedire lo sviluppo di questa tecnologia. Continuerà a crescere, che lo vogliamo o no. La domanda più rilevante è come controllarla. Prenda ad esempio le armi nucleari. Certo che dobbiamo averne paura ma purtroppo esistono. Il dentifricio è uscito dal tubetto e non puoi rimetterlo dentro».
Che cosa possiamo fare allora?
«La nostra unica chance, come esseri umani, è diventare mediatori tra le diverse intelligenze artificiali».
Già adesso non riusciamo a controllarla.
«Appunto. Dobbiamo far sì che vi sia una pluralità di programmi che si controllano a vicenda e assicurarci di governare i rapporti tra loro. Ma non dovrà mai esserci un monopolio dell’intelligenza artificiale».
È la cosiddetta “singolarità tecnologica” tanto temuta da Bill Gates ed Elon Musk?
«Esattamente, dobbiamo evitare uno scenario in cui la crescita tecnologica sia al contempo irreversibile e fuori dal controllo umano. È il rischio maggiore che corriamo: una “googlelizzazione” e una centralizzazione dell’intelligenza artificiale metterebbe a rischio la società. Finché i limiti di ciascun programma saranno manifesti ci sarà ancora spazio per il pluralismo, la creatività e l’intelligenza umana e anche per la democrazia».
A proposito di democrazia e controllo delle tecnologie, il modello Big Tech sembra entrato in crisi. Che effetti avrà sullo sviluppo dell’intelligenza artificiale?
«I social media sono stati e sono tuttora uno strumento immensamente potente lasciato in mano alle Big Tech, che per anni hanno avuto campo libero. Ma possiamo trarne una lezione che in futuro potrà tornare utile per i programmi intelligenti».
Quale?
«Il fatto che, se vogliono e se sono abbastanza forti, gli Stati possono governare questi fenomeni. Penso soprattutto alla Cina e agli Usa».
Manca la politica?
«È l’unico contrappeso possibile. Ci vuole un governo “politico” delle intelligenze artificiali. Le faccio un esempio».
Mi dica.
«Col passare del tempo, crescerà l’interesse degli utenti a scoprire se un testo, un’immagine, un video o in generale un contenuto sono stati prodotti da uno di questi programmi come ChatGPT o se sono frutto dell’ingegno umano».
Ci sono già dei programmi appositi.
«Funzionano?»
Per mia esperienza, no.
«Perché non c’è un governo del fenomeno. Servono regole che rendano tracciabili i contenuti prodotti. Mi vengono in mente due metodi che potremmo usare».
Quali?
«Il primo è inserire nel software una stringa di codice che funzioni da “marker”, in modo che qualsiasi contenuto prodotto da questi programmi sia immediatamente riconoscibile come generato da un’intelligenza artificiale».
L’altro?
«Creare un database in cui salvare tutti contenuti realizzati da questi software, così che sia sempre possibile verificare quale programma li abbia prodotti e quando».
Qual è il più efficace?
«Non importa. Conta cominciare a governare il fenomeno e quindi imporre delle regole. L’intelligenza umana deve gestire l’intelligenza artificiale, che è uno strumento potentissimo e tale deve restare. Come è stato per l’energia atomica».
È tutta una questione di regole?
«Cominciamo da lì. Ma se vogliamo pattugliare la frontiera tra umano e non umano, la questione successiva potrebbe essere l’ibridazione».
Degli esseri umani?
«E della società. Nessuno ha delle risposte definitive, ancora. Lo strumento però è estremamente potente e può produrre effetti mai visti. Dovremmo allora cominciare a riflettere su come i valori che ci interessano – la libertà, la creatività, l’uguaglianza, etc – si riconfigurano in uno scenario in cui non siamo più in grado di capire se un testo, un’immagine o un contenuto sia stato prodotto o meno da qualcuno. Gli algoritmi e i programmi intelligenti rappresentano già forme di collaborazione mediata tra molteplici individui. Chi è l’autore – in senso tradizionale – di un testo prodotto da ChatGPT, il programma o i suoi sviluppatori? E se il testo comincia a circolare, chi sta contribuendo al dibattito pubblico?».
Può esistere una sfera pubblica aperta all’intelligenza artificiale?
«L’unica certezza è che questa innovazione continuerà a evolvere. Dobbiamo garantire che la sfera pubblica resti sempre aperta e pluralista, anche se non saranno più esclusivamente gli individui a contribuirvi. Spetta a noi decidere in che direzione portare questa tecnologia, se verso uno scenario utile o distopico. L’importante è tutelare i valori umani e per farlo dobbiamo governare il fenomeno o almeno cominciare a discuterne».