IA, verso un nuovo regolamento europeo
La Commissione Ue intende regolare l’uso dell’intelligenza artificiale: ecco cosa c’è nella bozza della normativa
La prima versione di regolamento sull’intelligenza artificiale varata dalla Commissione europea, seppure ancora lontana dalla stesura definitiva e dall’approvazione, sta già determinando non pochi effetti e reazioni. Non è una sorpresa: innumerevoli settori – produttivi, economici, occupazionali – sono già profondamente condizionati da questa tecnologia, che è sempre più presente sul mercato e pervasiva in ogni aspetto della nostra quotidianità.
L’elaborato iniziale a cui ci si sta riferendo è quello trapelato il 14 aprile scorso e finito su molti media, poi confermato qualche giorno più tardi da una bozza ufficiale, il cui scopo dichiarato è supportare lo sviluppo dell’intelligenza artificiale affinché diventi uno strumento non solo utile e migliorativo della società, ma soprattutto sicuro e affidabile, all’insegna della trasparenza. Insomma, da un lato si intende sfruttare appieno il potenziale dell’intelligenza artificiale per migliorare l’economia globale, e dall’altro c’è la volontà di ridurre al minimo i rischi che ne possono derivare. La strada per l’approvazione definitiva è comunque ancora lunga: il testo deve ottenere il benestare sia da parte dei governi nazionali sia dal Parlamento europeo, con tempi ancora incerti e che potrebbero dilatarsi in modo significativo.
Una normativa rigida per le industrie europee
Dato che si tratta del primo regolamento in assoluto che disciplina l’uso dell’intelligenza artificiale nel Vecchio Continente, di fatto l’effetto principale della normativa – ancora prima di conoscerne i dettagli fini – sarà quello di ridurre le libertà d’azione delle grandi aziende tecnologiche. Di fatto, si passerà da un liberi tutti sostanziale a una situazione con paletti ben definiti. Infatti, tutte le aziende saranno obbligate a conformarsi alla nuova normativa, perché in caso contrario sono previste sanzioni fino a 20 milioni di euro o al 4% del fatturato globale annuo. E ci sono già le prime reazioni: come facilmente pronosticabile, la bozza del regolamento non soddisfa il mondo industriale Big tech, e a giudizio delle aziende stesse potrebbe rendere il mercato dell’Unione europea meno appetibile per gli investitori.
Tra i capisaldi messi nero su bianco già nella bozza di regolamento c’è il cosiddetto principio umano-centrico, ossia uno sguardo particolarmente attento ai diritti umani, un po’ come è già stato fatto con la privacy e la tutela dei dati personali attraverso il Regolamento generale sulla protezione dei dati Gdpr. Insomma, Bruxelles intende tenersi a debita distanza da forme di utilizzo della tecnologia che possano portare a sistemi high tech di sorveglianza, come per esempio accade in paesi come la Cina.
Partendo dall’assunto fondamentale dell’umanocentrismo, è facile dedurre che tante applicazioni dell’intelligenza artificiale possano essere limitate, impedite o quantomeno circoscritte con precisione. A partire da tutte quelle tecnologie che mirano a condizionare le opinioni delle persone, manipolando il pensiero e il modo di agire oppure facendo leva su punti di debolezza o vulnerabilità psicologica. Allo stesso modo, saranno vietate tutte quelle applicazioni che – direttamente o indirettamente – controllano e monitorano i comportamenti. Fatta eccezione per quei casi in cui lo scopo è contrastare crimini di grave entità, in cui la lotta agli illeciti e ai reati diventa l’obiettivo principale.
Ma c’è molto di più: pensando alla nostra quotidianità un pezzetto alla volta, sono tante altre le tecnologie già in utilizzo da anni che rischiano di non essere conformi alla nuova normativa. Algoritmi per la valutazione digitalizzata dei curriculum vitae, sistemi di analisi per l’affidabilità di investitori e debitori, strumenti intelligenti per aiutare i giudici a prendere le decisioni corrette, applicazioni riguardanti la salute pubblica e parecchie altre. Insomma, appare evidente che è molto difficile definire con chiarezza i limiti di questo nuovo regolamento, e occorrerà un’analisi specifica per ogni settore una volta che sarà stato approvato il testo definitivo della normativa. Ciò che è certo, però, è che l’impatto sarà grande.
L’intelligenza artificiale che ti guarda in faccia
Tra gli argomenti più discussi, in relazione agli usi controversi dell’intelligenza artificiale, c’è di sicuro il riconoscimento facciale, soprattutto quando avviene nei luoghi pubblici. Nella bozza del nuovo regolamento si parla in maniera esplicita di questo caso specifico, con la definizione di limiti spazio-temporali per poter utilizzare questa tecnologia: in pratica, i dati dovranno rimanere all’interno di una precisa area geografica ed essere usati solo per il raggiungimento di determinati scopi dichiarati a priori.
Per esempio, sono autorizzate ad agire le autorità che usano questa tecnologia per la tutela della sicurezza pubblica, come il caso del terrorismo. Già questa notizia, però, non è stata accolta con favore dai sostenitori del totale divieto dell’identificazione biometrica a distanza nei luoghi pubblici, che ne intravedono un potenziale pericolo per la loro libertà. Il risultato che si delinea è di alzare ulteriormente il livello di rigore per l’autorizzazione, valutando ogni caso specifico sia in termini di beneficio sociale sia riguardo ai rischi collegati all’uso dell’intelligenza artificiale.
Dalla Commissione europea è comunque già trapelata l’intenzione non di regolare la tecnologia in sé, ma agire in base a casi specifici e mirati. Proprio per questo motivo sono stati individuati diversi livelli di rischio. Il rischio minimo rappresenta i casi in cui l’intelligenza artificiale è consentita sempre, mentre nei casi a rischio basso (come, per esempio, i chatbot) è necessario rispettare obblighi di trasparenza. Nei casi a rischio alto, come le applicazioni in ambito medico o per il reclutamento dei lavoratori, saranno necessari specifici requisiti e rigorosi adempimenti per legittimare l’applicazione di questi strumenti tecnologici. Infine, ci sono le tecnologie a cosiddetto rischio inaccettabile: considerate pericolosissime e quindi assolutamente vietate, includono le attività di social scoring e la sorveglianza di massa.