L’arrivo di strumenti di creazione testuale come ChatGPT (e non solo) ha mostrato al grande pubblico cosa è possibile fare con l’intelligenza artificiale e ha aperto interrogativi circa l’impatto sull’occupazione creativa. Nel 2020, la Pontificia Accademia per la Vita ha organizzato una riflessione etica sull’uso dell’IA coinvolgendo esperti e grandi aziende tech come Ibm e Microsoft. Oggi questa riflessione si estende a rappresentanti di ebraismo e islam e rilancia la richiesta di trasparenza e democrazia nell’uso e nell’utilizzo della tecnologia. Ce ne parla padre Paolo Benanti, francescano, e professore di etica della tecnologia alla Pontificia Università Gregoriana e direttore scientifico della Fondazione RenAIssance, emanazione della Pontificia Accademia presieduta da monsignor Vincenzo Paglia, e promotrice della “Rome Call for AI Ethics”.
«Devo dire ce ci sono state diverse letture dell’iniziativa, non tutte corrette, c’è chi ha visto una sorta di tentativo di mettere paletti all’IA da parte della Chiesa, chi un’operazione di marketing e chi ha semplicemente detto che non è possibile avere un’etica veramente condivisa. In realtà la “Call” è una cosa plurale che nasce dall’esigenza di affrontare un problema, di indicarlo innanzi tutto. I primi attori sono naturalmente i promotori come la Pontificia Accademia e la Fondazione, ma la cosa interessante è vedere chi si sente interpellato da questa idea di far sì che l’intelligenza artificiale metta al centro l’uomo e tutelino i diritti fondamentali. E se trovare i cattolici non è strano, qualcuno si potrebbe stupire che invece ci troviamo alcuni dei principali produttori di IA come Microsoft e Ibm. Quest’ultima ha stupito il mondo prima con “Big Blue, poi con Jeopardy, Microsoft adesso invece con l’acquisizione di OpenAI (di cui ChatGPT è uno strumento gratuito, ndr). Questi soggetti hanno detto: “Questi strumenti sono potentissimi, non basta che siano affidabili devono avere uno scopo”».
Ma non ci sono solo le aziende.
«No infatti, accanto a loro in questa Rome Call ci sono anche le istituzioni internazionali come la Fao e alcuni governi tra cui quello italiano e molte università».
Con quale fine?
«Questa Call ovviamente non è una lista dei buoni e dei cattivi e tanto meno è un dispositivo giuridico. È il tentativo di innescare un movimento culturale per orientare l’innovazione verso un certo tipo di sviluppo. Quello che è successo adesso a gennaio è che i rappresentanti di altre due delle religioni abramitiche (ebraismo e islam), si sono riconosciute interpellate da questa domanda e vogliono portare le loro fonti sapienziali nel discorso sull’innovazione tecnologica: non si tratta di fare dei semafori e capire chi passa col verde o chi passa col rosso, ma che abbiamo bisogno di un codice della strada».
Andiamo un po’ a fondo professore, che cos’è l’algoretica di cui vi occupate, lei come docente e collettivamente come Call?
«Non è solo un’etica applicata, stiamo riconoscendo che il decidere dell’uomo oggi si frammenta e si compone di diverse parti, innanzi tutto la libera consapevole responsabilità umana ma anche da una serie di spinte e deleghe verso strumenti algoritmici che a volte surrogano in parte o totalmente il processo decisionale. Quando oggi in una banca vediamo che il prestito si concede non per la storia del richiedente e per la fiducia che ha in lui il direttore ma perché un algoritmo che gira in un server accende o meno un led verde stiamo dicendo che quel processo decisionale è in toto surrogato da un processo automatico. Con quali criteri decide tutto questo? L’algoretica dice che quel processo non può essere una “black box”. Non si tratta di divieti ma di scegliere come vogliamo che siano prese le decisioni. Se ci sono dei criteri giusti allora l’algoritmo deve rispecchiare quei criteri ed essere trasparente e verificabile».
Aziende che utilizzano gli algoritmi per la selezione del personale, o quei tentativi di predizione dei crimini che però poi tendono ad essere punitivi nei confronti di alcune minoranze o sessisti quando scartano le donne. Insomma questi algoritmi rispecchiano i pregiudizi di chi li scrive?
«Questo sarebbe ancora un caso di logica lineare, dove il programmatore deve pensare a tutte le eventualità in cui incorre la macchina e mediante una catena di “if this, then that” (nel linguaggio di programmazione una dichiarazione condizionale che dice alla macchina “se succede questo, allora fai quello”, ndr) determina come si comporta la macchina ed è vero che anche in questo uno immette le proprie preferenze, ma il vero tema è di altra natura perché nel cosiddetto “machine learning” non è più il programmatore che dice alla macchina cosa deve fare, ma è quest’ultima che vive un processo di addestramento su quantità di dati che sfuggono per complessità alla comprensione umana e da questi astrae degli schemi. Siccome gran parte dei dati sono la traccia delle scelte delle persone, se le persone sono state ingiuste, nei dati avremo una traccia ingiusta. Il programmatore ha responsabilità sul “come” ma non sul “cosa” la macchina impara, ed è in questo snodo che avvengono le ingiustizie a cui si riferiva, è qui che in tanti domandano una gestione etica».
Ma noi possiamo mettere mano a questa “black box”, come facciamo ad accendere la luce?
«Se la macchina la concepiamo come un’automobile, quello che possiamo fare noi è mettere dei guardrail. Questi “guardrail etici” hanno il compito di rendere meno rischiose alcune istanze e hanno anche il compito, sostanzialmente, di mantenere la macchina – per quanto possibile – dentro un tracciato che abbiamo fatto. L’etica da sola basta? Saremmo ingenui a pensarlo, tuttavia da sempre la tecnologia ci ha mostrato questo dualismo, ogni cosa può essere usata per il bene o per il male. Quello che possiamo fare è creare una infrastruttura che permetta che le cose vadano nel miglior modo possibile, che non è una garanzia perché non ci siano incidenti, ma è almeno un tentativo di limitarli».