Il nuovo report ENISA sull’Intelligenza Artificiale: una prospettiva italiana
Il recente rapporto rilasciato da ENISA sull'Intelligenza Artificiale e la cybersecurity delinea un nuovo quadro normativo e standard di approccio per la comprensione degli scenari di evoluzione in ambito B2B e G2G. Il comparto AI italiano può beneficiare da un'attenta ricezione degli orientamenti dell'Agenzia Europea in materia
***Iniziamo da oggi una rubrica bisettimanale “Scenari ciber(n)etici” curata da DEAS S.p.A., azienda leader nel settore della Cybersicurezza che ospiterà contributi di esperti qualificati su aspetti strategici, politici, internazionali e tecnologici su questo tema sempre più attuale e delicato.
Rilasciato il 31 marzo 2023, il nuovo report ENISA (Agenzia dell’Unione europea per la cibersicurezza) presenta un’aggiornata “panoramica degli standard (esistenti, in fase di elaborazione, esame e progettazione) relativi alla sicurezza informatica dell’artificiale intelligenza (AI)” (p. 6). Le novità, in termini di approccio normativo all’Intelligenza Artificiale, sono diverse e rilevanti per comprendere il mutato quadro di riferimento in cui si collocano gli stakeholders europei del settore.
In primo luogo, il paradigma della cybersecurity viene esteso dalla tradizionale triade di “confidenzialità, integrità-disponibilità” (CIA: confidentiality–integrity–availability) all’affidabilità dell’IA (AI trustworthiness). L’AI è un ambito tecnologico che serve più cicli di attività umana – civile e militare – in una logica di interoperabilità. Per questo la ricerca di uno standard di sicurezza per l’Intelligenza Artificiale diventa un obbiettivo fondamentale per stabilire nuove norme tecniche (e giuridiche) nel contesto europeo.
La precedente pubblicazione ENISA, il Securing Machine Learning Algorithms del marzo 2021, aveva identificato tre dimensioni dell’interazione tra cybersecurity e Intelligenza Artificiale: quella della cybersicurezza dell’AI, ovvero della robustezza dei suoi sistemi; quella della AI per la cybersicurezza, ovvero dell’utilizzo dell’AI per l’automatizzazione della sicurezza IT; e quella dell’utilizzo malevolo dell’AI, per l’ingegnerizzazione degli attacchi informatici.
Il focus dell’intero report ENISA è rappresentato dalla cybersicurezza dell’AI, con l’obbiettivo di assicurare cioè “qualità dei dati, supervisione, solidità, accuratezza, spiegabilità, trasparenza e tracciabilità” (p. 10) dei processi legati all’intelligenza artificiale. Questo rappresenta il secondo elemento di novità introdotto dal Report.
Ormai ogni settore della filiera ICT è interessato da specifici standard di sicurezza: dal software developement all’approvvigionamento delle pubbliche amministrazioni, dai dati e contenuti trasmessi agli asset dei sistemi informativi. È il momento in cui, secondo ENISA, si deve valorizzare la necessità di garantire e incoraggiare un’armonizzazione normativa finalizzata a consentire di evitare sovrapposizioni o duplicazioni degli sforzi legislativi prodotti dagli Stati dell’Unione.
Tale documento, quindi, può essere oggetto di importanti riflessioni, di carattere operativo e non, oltre a rivolgersi ad un’ampia platea di interessati: curiosi, appassionati, studiosi, tecnici, imprenditori e governi sono infatti i destinatari del “Cybersecurity of AI and Standardisation” paper. Quali sono i punti chiave del rapporto? Che benefici possono arrecare gli orientamenti di ENISA?
Il terzo elemento di interessedel Report è l’importanza attribuita all’applicabilità di alcuni standard già esistenti per lo sviluppo di software allo sviluppo di prodotti IA, sulla base del principio per cui l’IA “è nella sua essenza un software” (p. 17). In particolare, gli standard tecnici e organizzativi generali già vigenti, a partire dalla famiglia di certificazioni ISO-IEC 27001 e ISO-IEC 9001 possono, secondo il rapporto, certamente contribuire a mitigare alcuni tra i rischi affrontati dall’IA; e senza escludere la necessità di interventi ausiliari, costituiti da orientamenti specifici, pernuove modalità di applicazione e di sviluppo nei contesti di possibile impiego dell’intelligenza artificiale.
L’approccio in oggetto è da considerarsi, però, non esaustivo. La nozione stessa di IA, in perenne evoluzione, non si limita al solo concetto di software, ma include necessari elementi come l’hardware o l’infrastruttura, considerando inoltre che gli standard già esistenti non sembrano idonei ad affrontare tematiche contingenti quali la tracciabilità e la qualità dei dati che compongono l’IA.
In tal senso, la sicurezza informatica può, da un lato, essere impiegata in modo strumentale rispetto alla corretta implementazione delle caratteristiche di affidabilità dell’IA; dall’altro, la precisa implementazione dei paradigmi di affidabilità è da considerarsi elemento essenziale per garantire la sicurezza informatica.
Infine, un elemento di novità del Report è rappresentato dalle raccomandazioni rivolte alle organizzazioni incaricate del compito di armonizzare gli standard in materia. ENISA focalizza in particolare l’attenzione su alcune misure di raccordo della governance e delle pratiche normative per l’IA, fra cui:
- l’utilizzo di una terminologia IA standardizzata e armonizzata per la sicurezza informatica;
- lo sviluppo di linee guida specifiche su come applicare gli standard esistenti alla sicurezza informatica del software;
- lo sviluppo di metriche e sistemi di tracciabilità per il machine learning;
- la creazione di collegamenti tra i comitati tecnici della sicurezza informaticae comitati tecnici AI;
- lo sviluppo di standard settoriali basati in modo coerente ed efficiente su quelli orizzontali, dato l’ampio raggio dei dominii di applicabilità dell’IA;
- l’incoraggiamento di investimenti R&D, assieme alla promozione di un sistema di benchmarking dei progetti legati all’IA;
- la promozione di strumenti e competenze per rendere omogenee le pratiche di valutazione della conformità nell’ambito dell’IA.
- l’armonizzazione tra le diverse iniziative normative europee, in particolare tra Cybersecurity Act (maggio 2013) e Cyber Resilience Act (settembre 2022) per stabilire requisiti di cybersicurezza coerenti per i prodotti IA.
Dalla cybersicurezza dell’AI all’AI per la cybersicurezza: un contributo italiano?
Il comparto IA italiano, che secondo l’Osservatorio Artificial Intelligence della School of Management del Politecnico di Milano ha registrato una crescita del 32% nel corso del 2022, è un testimone e un protagonista importante per l’ecosistema europeo dell’Intelligenza Artificiale. Non soltanto per l’ingegnerizzazione di nuove soluzioni analitiche e predittive nell’ambito della pianificazione aziendale e gestione degli investimenti; ma anche per la sua applicazione per i concreti casi d’uso in ambito cyber.
La sfida italiana, infatti, non consiste solo nel partecipare alla creazione e condivisione delle pratiche della cybersicurezza dell’AI, secondo la prima dimensione del rapporto tra cyber e AI indicata da ENISA. È in particolare la seconda dimensione individuata da ENISA, quella dell’AI per la cybersicurezza, che è particolarmente importante per la modernizzazione della Difesa italiana.
Progettare ed implementare soluzioni di AI per la cybersicurezza contribuirebbe a far sorgere, consolidare o migliorare posizioni di vantaggio, tanto per le aziende (secondo un modello B2B: business to business), quanto per realtà governative (secondo un modello B2G: business to governement). La capacità di rilevare, prevenire e rispondere a minacce informatiche sempre più sofisticate e complesse, idonee a causare danni e rischi a beni meritevoli di tutela (causando, ad esempio, la perdita di dati sensibili, interruzioni di servizi essenziali, danni reputazionali o finanziari), sarebbe in tale prospettiva più efficiente e rapida rispetto ai canoni tradizionali.
I benefits derivanti da questo genere di soluzioni, in un’ottica prospettiva, si osservano da punti di vista qualitativi che quantitativi.
Sotto il primo aspetto, l’intelligenza artificiale può essere utilizzata per analizzare grandi quantità di dati, identificare modelli e tendenze anomale, e rilevare in tempo reale attività sospette o potenzialmente pericolose. Inoltre, le soluzioni di intelligenza artificiale possono apprendere e migliorare continuamente, adattandosi alle nuove minacce e migliorando la precisione delle analisi.
In secondo luogo, l’implementazione di soluzioni di intelligenza artificiale può contribuire a ridurre anche i costi associati alla sicurezza informatica. Numerose attività di monitoraggio e rilevamento possono essere automatizzate, liberando le risorse umane per attività più strategiche e di alto valore aggiunto.
In sintesi, l’implementazione di soluzioni di intelligenza artificiale a servizio della cybersicurezza costituisce idoneo e necessario mezzo per aiutare organizzazioni, sia pubbliche che private, a fronteggiare i rischi, migliorare l’efficienza e ridurre i costi associati alla sicurezza informatica.