L’eurodeputato Pd, Brando Benifei, a TPI: “Vi spiego la legge Ue sull’intelligenza artificiale”
“Ci sono state tante resistenze. Ma il testo concordato è lontanissimo da quello proposto dai Governi. Abbiamo mandato un chiaro messaggio ai cittadini: fidatevi della tecnologia perché sarà adottata rispettando regole certe”. Ecco tutti i vantaggi e i retroscena dei negoziati, secondo il co-relatore della prima norma comunitaria in materia
Dopo un lungo negoziato, chiusosi con 36 ore di fuco, le istituzioni dell’Ue hanno raggiunto l’accordo sull’AI Act, la legge europea sull’intelligenza artificiale. Il primo quadro normativo su questi sistemi tecnologici nel mondo. L’obiettivo della normativa è garantire che l’intelligenza artificiale protegga i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale, stimolando al tempo stesso l’innovazione e rendendo l’Europa leader nel settore. Ne abbiamo parlato con chi ha preso parte attivamente ai negoziati. Uno dei relatori dell’AI Act: l’europarlamentare, eletto nelle liste del Pd, Brando Benifei.
Cosa prevede la legge europea sull’intelligenza artificiale?
«Il regolamento europeo sull’intelligenza artificiale (l’AI Act, ndr) trasforma una serie di iniziative, protocolli, codici di condotta, raccomandazioni che già in parte erano oggetto di operatività in molti contesti di utilizzo dell’intelligenza artificiale su base volontaria, in una legge organica, orizzontale. Una legge, la prima al mondo, che va a determinare un obiettivo molto preciso: la riduzione dei rischi nell’utilizzo dell’IA nella nostra vita per invece esaltarne le opportunità e le possibilità positive per le persone. In sostanza va ad identificare quali sono i casi di utilizzo dell’intelligenza artificiale che, avendo una rischiosità più elevata, richiedono delle regole più stringenti, in particolare una verifica di conformità da parte degli sviluppatori».
Ci può fare qualche esempio?
«Mi riferisco, ad esempio, all’intelligenza artificiale che viene usata nei luoghi di lavoro, nelle scuole, negli ospedali, nei tribunali… Cioè nei contesti più delicati, più sensibili. Ci sono una serie di ambiti che sono considerati ad alto rischio. Qui gli sviluppatori dovranno portare avanti una procedura di conformità. Ovvero verificare che il loro sistema abbia determinate caratteristiche, degli standard ben precisi che saranno fissati nei prossimi mesi: qualità dei dati utilizzati per allenare il sistema, governance, cybersicurezza, impatto ambientale e altri».
Ci può illustrare un caso pratico?
«Grazie a questa legge non verranno più messi in commercio sistemi che nella selezione dei curricula discriminano le donne escludendole dai lavori importanti… Questo rischio verrà eliminato. Più in generale verranno eliminati i rischi per la salute, la sicurezza e i diritti fondamentali».
Norme che dovranno rispettare tutte le aziende o solo quelle europee?
«Queste norme si applicano a tutti coloro che vogliono commercializzare il loro prodotto nel mercato comune europeo. Farlo usare in Europa. Quindi andranno rispettate anche da aziende americane, coreane…».
Andiamo nel dettaglio. Cosa sarà proibito dalla legge?
«Con l’AI Act siamo i primi a dire che ci sono degli usi dell’intelligenza artificiale che sono così rischiosi da farci ritenere che non debbano essere utilizzati. Parliamo di una lista che il Parlamento ha allargato molto ed è stata oggetto del negoziato più duro. Dentro c’è il divieto della polizia predittiva, che è stato oggetto di un braccio di ferro. Avremo un divieto totale a differenza di quanto era stato detto e pensato prima. Cioè sarà vietato l’utilizzo dell’IA per individuare chi commetterà un crimine. Oltre al fatto che non funziona, noi riteniamo che sia un sistema lesivo del principio di non colpevolezza. Va contro lo stato di diritto in maniera assoluta. Quindi, con molta fatica, abbiamo inserito un divieto pieno».
Altri divieti?
«C’è il divieto della categorizzazione biometrica. Ovvero del fatto di categorizzare le persone attraverso le telecamere con riconoscimento facciale anche su materiali utilizzati successivamente secondo categorie protette come orientamento sessuale, etnia, idee religiose o politiche. Questo è stato completamente vietato. Come è stato vietato anche il riconoscimento emotivo nei contesti della scuola e del lavoro».
Si è parlato tanto dello stop ai sistemi di riconoscimento biometrico. Ci può dire qualcosa in più?
«Sì, viene vietato anche il meccanismo delle telecamere a riconoscimento biometrico in tempo reale. Salvo in un paio di eccezioni, tema che ha richiesto almeno 8-9 ore di discussione sulle 36 che abbiamo fatto nell’ultima parte del negoziato. È stato deciso che l’utilizzo verrà sottoposto al controllo di un’autorità giudiziaria e con accesso da parte delle autorità di protezione dei dati che sono autonome dai governi. Dettaglio che diversi esecutivi non volevano».
Quali sono le eccezioni?
«Le eccezioni riguardano la ricerca di terroristi per un attentato imminente secondo la giurisprudenza della Corte di Giustizia dell’Ue e per crimini gravissimi come omicidio e strage. Per questo tipo di ricerca di sospettati, attraverso i controlli che ho citato poco fa, viene autorizzato l’utilizzo».
Veniamo all’intelligenza artificiale generativa. Cosa è stato deciso?
«Per i modelli più potenti che si sono sviluppati nell’ultimo anno e mezzo che sono alla base dell’IA generativa, mi riferisco per esempio a quello che è alla base del famoso ChatGPT, richiediamo delle verifiche di sicurezza preventive. Prima che entrino sul mercato. Verifiche sul modello. Alla radice. Il motivo è che questi modelli hanno un’elevata versatilità, delle possibili evoluzioni che gli stessi sviluppatori non conoscono fino in fondo e sono sempre più alla base di altri sistemi di cui diventeranno un po’ l’alfabeto. Questa decisione va a tutela dei cittadini, ma anche delle imprese che, se si devono sviluppare su questi modelli, è giusto che ne conoscano le caratteristiche tecniche, i rischi e così via».
Immagino che anche qui avete riscontrato delle forti resistenze?
«Sì, anche questo è stato oggetto di un negoziato difficile per via della lobby di alcune grandi realtà. Anche di modelli europei in fase di sviluppo. In particolare c’è stata una lettera firmata da Francia, Germania e Italia – che non si è ben capito perché ci fosse, forse è stata trascinata… – in cui si chiedeva di non rendere queste regole obbligatorie. Alla fine però anche la loro posizione è stata ammorbidita e superata».
Le regole varranno anche per i modelli di IA generale, quelli con finalità più versatili?
«Sì. Qui ci sono obblighi di trasparenza sui contenuti e sul copyright, tema che ci ha segnalato EGAIR (European Guild for AI Regulation, ndr) ma non solo. Cioè il fatto che i creativi, gli artisti che realizzano i contenuti che vengono utilizzati dall’IA per allenarsi possano vietare l’utilizzo dei propri contenuti per magari negoziarne l’utilizzo da una posizione di forza. Questo ovviamente varrà per i nuovi modelli. Per quelli già esistenti sarà difficile riuscire a estrarre i dati per vedere cosa c’è dentro. Dovranno però essere prodotti dei sommari dettagliati sull’utilizzo dei contenuti protetti da copyright. Gli autori avranno quindi la possibilità di sapere cosa è stato utilizzato in modo che possano vedere se c’è stata o meno una violazione e agire di conseguenza. Gli diamo uno strumento di controllo molto forte. Anche qui c’è stato un fortissimo tentativo di evitare la cosa da parte degli sviluppatori, ma alla fine abbiamo risolto».
L’AI Act prevede anche che i contenuti prodotti dall’intelligenza artificiale vengano resi riconoscibili dagli utenti. Come?
«I sistemi di IA generativa (video, audio, foto ecc) dovranno mettere una filigrana digitale, un “logo” dentro il contenuto prodotto. Questo marchio “nascosto” verrà letto da ogni macchina (pc, smartphone, televisione e device vari) che quindi saprà automaticamente che è un contenuto prodotto da IA e lo renderà noto all’essere umano che ne usufruirà. Lo dirà chiaramente. Si tratta di un elemento di trasparenza importantissimo».
Nell’AI Act sono previsti organi di controllo? Chi verificherà che tutto viene fatto nel rispetto della legge?
«Ovviamente per rendere questo regolamento qualcosa che funziona e non solo un pezzo di carta serve un sistema di autorità di controllo che faccia rendere effettivo il rispetto della norma con multe, penalità fino alla rimozione dal mercato. Ci sarà quindi un ufficio europeo: l’AI Office che coordinerà il lavoro delle autorità nazionali ma avrà anche una funzione molto attiva a livello centrale. Il Parlamento si è battuto molto su questo. Mi permetta di aggiungere che la scelta di aver individuato l’approccio di questo regolamento basato sui casi d’uso come struttura di base lo rende più facilmente capace di sopravvivere ai cambiamenti tecnologici. Le tecnologie possono evolvere ma il fatto di usare l’IA in una scuola, in un ospedale, in tribunale ecc non cambia. Sia i casi d’uso sia altre caratteristiche saranno oggetto del lavoro in alcuni casi dell’AI Office; in altri di delegati della Commissione europea che saranno sotto il controllo del Parlamento europeo e quindi l’aggiornamento del regolamento è assolutamente garantito».
Quali sono i tempi? Quando l’AI Act diventerà legge?
«All’inizio di febbraio al Parlamento è previsto il voto finale che è un po’ una formalità. Non c’è la possibilità che non passi. Da febbraio il regolamento diventerà legge. A quel punto si aprirà la graduale entrata in vigore. I divieti diventeranno operativi in soli 6 mesi. In 12 mesi sarà operativa la parte relativa ai modelli più potenti e alla trasparenza. 24 mesi sarà invece il tempo per tutte le altre previsioni. Questo per avere il tempo di sviluppare gli standard e per lo sviluppo delle autorità di supervisione. Altrimenti le norme sarebbero volontarie… Quello che partirà dal giorno uno sarà il cosiddetto “Patto per l’Intelligenza artificiale” cioè una piattaforma di sostegno ad una adesione volontaria anticipata alle regole dell’AI Act per le imprese sviluppatrici e per le realtà che utilizzano l’intelligenza artificiale. Servirà anche per arrivare pronti al momento in cui sarà obbligatorio rispettare le regole».
Nel corso dell’intervista ha parlato in più occasioni di resistenze. Qual è stato il Paese più rigido nel corso dei negoziati?
«Noi negoziamo direttamente con il Paese che ha la presidenza di turno. Quindi abbiamo negoziato con la Spagna che rappresentava tutti i governi. Poi ovviamente all’esterno c’è stato un confronto con tutti i singoli esecutivi. Possiamo dire che i Paesi più rigidi sulle questioni della sorveglianza e sui modelli più potenti (proibizioni e trasparenza) sono stati senza dubbio l’Italia, la Francia, la Germania (che però è stata la prima a dare una mano per trovare una soluzioni) e Stati membri come Bulgaria e Ungheria. Va detto che il testo concordato è lontanissimo da quello proposto dai governi. La fretta che avevano i singoli esecutivi europei di concludere ha di certo aiutato a farli cedere su vari punti. Siamo soddisfatti».
La posizione dell’Italia è sempre stata la stessa o ci sono stati dei cambiamenti?
«La posizione non è mutata e non credo muterà. Il 15 dicembre ci sarà la riunione degli ambasciatori e anche l’Italia dovrà dire se rigetta o appoggia questo accordo. Ma mi pare difficile che il nostro Paese possa rigettare il regolamento».
Tra qualche mese ci saranno le elezioni europee. Se il prossimo Parlamento dovesse avere idee diverse in merito, potrebbe cambiare la legge?
«Cambiare il regolamento è molto complesso. Votarla ora offre anche la garanzia che rimanga una legge con un impianto più che progressista».
Paolo Benanti, l’unico italiano membro del Comitato sull’intelligenza artificiale delle Nazioni Unite, ha accolto più che positivamente questa notizia sostenendo che “ferma la manipolazione” e che “ora l’IA ci migliorerà”.
«Sono convinto che l’uso dell’IA con queste regole che mettono l’essere umano al centro sia un modello che può ispirare il resto del mondo e che ci permetterà di ridurre i rischi e aumentare le possibilità. Paolo Benanti ha espresso un apprezzamento per il nostro lavoro, ma devo dire che nel mondo accademico e della società civile ho trovato moltissimi giudizi positivi. Il testo finale è molto lontano non solo dal testo approvato dai governi, che era più debole sulla tutela dei diritti umani e dei lavoratori, ma è molto migliore rispetto alla bozza della Commissione europea che era la bozza iniziale da cui siamo partiti. Credo che la presidenza spagnola abbia fatto bene a correre qualche rischio aprendo ad alcune delle nostre richieste perché solo così, con un testo del genere, possiamo affrontare il cambiamento tecnologico con credibilità e con un messaggio chiaro ai cittadini: cioè di fidarsi dell’adozione dell’IA perché in Europa ciò avverrà rispettando regole molto chiare a loro tutela».