***Questo articolo fa parte della rubrica bisettimanale “Scenari ciber(n)etici” curata da DEAS S.p.A., azienda leader nel settore della Cybersicurezza, che ospita contributi di esperti qualificati su aspetti strategici, politici, internazionali e tecnologici su questo tema sempre più attuale e delicato.
Nell’era digitale in cui viviamo, e in un contesto globale sempre più multipolare e competitivo, la sicurezza nazionale rappresenta una priorità ineludibile per qualsiasi Paese. La minaccia del terrorismo, con il suo potenziale devastante, richiede soluzioni innovative per prevenire e contrastare tale fenomeno nelle declinazioni in cui si articola. L’Intelligenza Artificiale (IA) e l’Apprendimento Automatico (ML) si stanno rivelando strumenti rivoluzionari nella lotta contro il terrorismo, aprendo nuove prospettive nella prevenzione e nell’identificazione dei possibili terroristi, nonché dei vettori di attacco. L’applicazione delle tecniche avanzate di apprendimento automatico, tematica che sta ricevendo sempre più attenzione nel dibattito scientifico, può essere impiegata per decifrare il profilo di rischio dei potenziali terroristi, con implicazioni tangibili anche per la potenziale utilità nella tutela di beni giuridici di ampia importanza, come la stessa sicurezza nazionale.
Verso un approccio IA alla sicurezza nazionale?
La tutela della sovranità dello Stato, nella specie per il contrasto al terrorismo, richiede un approccio globale e innovativo, soprattutto in ragione dell’evoluzione di questo fenomeno in forme sempre più sfaccettate (si pensi ai foreign fighters o alle attività di reclutamento e di indottrinamento online). L’obiettivo di identificare e prevenire l’azione dei potenziali terroristi rappresenta una delle sfide più urgenti e complesse per la tutela di numerosi beni valoriali del nostro ordinamento, in particolare per le agenzie di sicurezza italiane.
I risultati dell’articolato studio condotto – recentemente apparso sul Journal of Intelligence & Analysis – si basano su un approccio unico nell’utilizzo dell’apprendimento automatico per identificare potenziali target di minaccia. L’algoritmo di apprendimento automatico “Extreme Gradient Boosting” (XGBoost) è stato applicato a un vasto dataset contenente informazioni su individui sotto indagine o accusati di crimini legati al terrorismo. Questi dati includono dettagli personali, provenienza, genere e luogo in cui sono avvenuti i crimini. L’obiettivo è individuare modelli e tendenze significative all’interno di questi dati, consentendo di creare profili di rischio congrui e dettagliati.
L’impiego dell’apprendimento automatico ha portato a risultati promettenti, dischiudendo nuove potenziali applicazioni anche per la sicurezza nazionale italiana. L’algoritmo XGBoost ha dimostrato la capacità di individuare pattern e correlazioni all’interno dei dati, fornendo un profilo di rischio per possibili terroristi. Questo strumento potrebbe diventare un pilastro fondamentale nella prevenzione di atti terroristici, quindi nella protezione dei cittadini.
Sfide Etiche e di Privacy
L’impiego di queste tecniche solleva importanti questioni etiche, a cui non è semplice offrire risposte univoche. È essenziale trovare un equilibrio tra la necessità di proteggere la sicurezza nazionale e il rispetto dei diritti individuali e delle libertà personali. Il legislatore italiano dovrà affrontare queste sfide in modo conforme alle fonti nazionali ed internazionali in materia, garantendo che l’uso dell’apprendimento automatico avvenga, in primo luogo, nel rispetto dei diritti e delle libertà personali. Attraverso queste nuove opportunità di applicazione dell’IA emergono certamente sfide etiche e preoccupazioni legate alla privacy che non possono essere trascurate. Bilanciare il bene della sicurezza pubblica con i valori democratici ed i diritti umani fondamentali è obiettivo primario. In particolare, alcune sfide etiche e di privacy devono essere affrontate con attenzione per uno sviluppo armonico di queste nuove tecnologie con gli standard normativi vigenti.
In primo luogo, esiste il dilemma della profilazione: l’applicazione dell’apprendimento automatico per creare profili di rischio solleva il delicato dilemma etico della costruzione di modelli predittivi di pericolosità. L’individuazione di pattern e caratteristiche comuni tra i possibili terroristi può portare a una categorizzazione basata su criteri soltanto apparentemente neutri, viziati in realtà da bias cognitivi di diversa natura. Il rischio è che questa pratica possa portare a conseguenze ingiuste e discriminatorie, veicolate da stereotipi nocivi, minando quindi la promozione di una società inclusiva e diversificata.
Un altro tema riguarda l’efficacia e l’accuratezza degli algoritmi di apprendimento automatico, dipendenti dai dati utilizzati per il loro addestramento. È fondamentale rispettare la trasparenza riguardo all’origine dei dati e ai criteri di selezione. La responsabilità dell’utilizzatore deve essere garantita motivando la decisione presa sulla base delle informazioni ottenute attraverso l’ausilio di mezzi di apprendimento automatico. In tale ottica, meccanismi di controllo e supervisione dovrebbero essere implementati conformemente ad esigenze di tutela da fenomeni di abuso.
Altro tema sensibile è rappresentato dalla privacy individuale. L’utilizzo di dati sensibili per creare profili di rischio richiede una rigorosa protezione della privacy. Le informazioni personali degli individui, come dettagli particolari, provenienza e genere, possono essere utilizzate per scopi diversi da quelli inizialmente previsti. È necessario implementare misure di anonimizzazione e protezione dei dati per garantire che le informazioni sensibili non siano accessibili a terzi non autorizzati.
In quarto luogo, ogni sistema basato sull’apprendimento automatico è suscettibile di errori. Il rischio di profilazione errata potrebbe portare a conseguenze gravi per individui innocenti, danneggiando ingiustamente la sfera personale dell’individuo. La presunzione di non colpevolezza, costituzionalmente garantita dall’art. 27 co. 2, dovrebbe rimanere il criterio guida anche nell’utilizzo di tali tecniche avanzate di analisi dei dati in funzione della sicurezza nazionale.
Prospettive Future per la Sicurezza Nazionale
La Relazione sulla Politica dell’Informazione per la Sicurezza – 2022 del DIS (Dipartimento delle Informazioni per la Sicurezza), pubblicata nel febbraio di quest’anno, ha già evidenziato come il settore tecnologico dell’IA rappresenti ormai un vettore strategico fondamentale nel confronto tra superpotenze come USA e Cina. La rilevanza di questo settore, però, non è da sottovalutare anche in relazione alle sfide securitarie locali e globali, al di sotto della soglia di confronto tra le cosiddette “superpotenze informazionali”.
L’uso dell’apprendimento automatico per decifrare il profilo di rischio dei possibili terroristi può costituire un’opportunità senza precedenti per la sicurezza nazionale italiana. Con ulteriori sviluppi tecnologici e l’accumulo di dati, è possibile migliorare ulteriormente l’accuratezza dei modelli di profilazione. In tal senso, la collaborazione tra esperti di sicurezza, scienziati dei dati e istituzioni governative sarà quindi cruciale per affrontare le sfide future e sviluppare strategie efficaci di prevenzione del terrorismo.
Per queste ragioni, forse, l’applicazione dell’apprendimento automatico per identificare potenziali terroristi potrebbe rappresentare anche una pietra miliare nell’evoluzione tecnologica del comparto intelligence italiano. Questa ricerca apre infatti nuove prospettive nella prevenzione degli attacchi terroristici, potenziando l’operatività degli addetti della sicurezza nell’attività di monitoraggio, identificazione e profilazione delle minacce al sistema democratico. Attraverso un approccio etico e strategico all’IA, l’Italia può sfruttare appieno il potenziale delle tecnologie emergenti per costruire un futuro più sicuro e resiliente per persone fisiche e giuridiche.