Tecnologie emergenti e sicurezza (inter)nazionale: l’IA nelle nuove politiche di sicurezza
***Questo articolo fa parte della rubrica bisettimanale “Scenari ciber(n)etici” curata da DEAS S.p.A., azienda leader nel settore della Cybersicurezza, che ospita contributi di esperti qualificati su aspetti strategici, politici, internazionali e tecnologici su questo tema sempre più attuale e delicato.
Lo sviluppo di tecnologie metriche, statistiche ed informatiche ha gradualmente modificato il sistema di conduzione delle politiche di sicurezza (inter)nazionale. L’avvento di nuove tecnologie informatiche, quali intelligenza artificiale, sistemi di identificazione biometrica e database di classificazione elettronica (solo per citarne alcuni), hanno avuto un impatto a livello sistemico sul sistema internazionale e sugli Stati che lo compongono. Implicazioni pratiche dello sviluppo di tali tecnologie mutano l’essenza stessa della sicurezza nazionale ed internazionale nelle società contemporanee, contribuendo in tal senso, al passaggio dal concetto foucaultiano di società disciplinare a quello di una società di controllo e sorveglianza. Parallelamente, l’utilizzo di tali tecnologie ha rivoluzionato le modalità di conduzione delle politiche relative alle minacce internazionali. Dalle migrazioni alla warfare tradizionale, fino al cambiamento climatico: l’avvento delle nuove tecnologie è stato catalizzatore globale di mutamenti nelle politiche di sicurezza.
Nel settore militare il perfezionamento – tutt’ora in corso – dei sistemi di intelligenza artificiale ha, de facto, costituito una rivoluzione sostanziale degli armamenti in dotazione agli Stati. Il risultato di tale variazione ha inciso su strategie offensive e difensive, modificando la natura stessa dei conflitti simmetrici e asimmetrici. In modo particolare, è stato determinante il processo di Weaponization dell’Intelligenza Artificiale, i cui algoritmi hanno permesso lo sviluppo di armamenti autonomi in grado di delegare alle macchine il processo di individuazione, targeting ed eliminazione di target (Point, Aim and Shot), senza alcun controllo umano. Anche conosciuti come Lethal Authonomous Weapons Systems (LAWS), tali tecnologie sono di natura rivoluzionaria per la warfare tradizionalmente conosciuta. Applicazioni tangibili sembrano essere in via di sviluppo per l’artiglieria, il dominio marittimo e soprattutto quello aereo. Tuttavia, l’ambito di applicazione dell’IA ha coinvolto molteplici settori di interesse militare. A tal proposito si segnala che momentaneamente i sistemi di IA sono utilizzati per lo più ai fini di ricognizione, spionaggio e raccolta di informazioni di intelligence.
Uno sguardo in ottica comparata conferma che i LAWS sono impiegati, testati e sviluppati da molteplici Stati. In termini di applicazione di IA all’interno sistemi di artiglieria, un esempio è rappresentato dalle sentinelle automatiche SGR-A1, in dotazione all’esercito sudcoreano, ed impiegate al confine con la Corea del Nord. Si tratta di prototipi dotati di cannoni installati su delle torrette programmate con IA e collegate a sensori. Dapprima utilizzate sulle imbarcazioni contro la pirateria, tali sistemi hanno scopo essenzialmente difensivo ed hanno la capacità di sfruttare gli algoritmi di IA ai fini di sorveglianza, tracciamento, ed eliminazione di soggetti riconosciuti attraverso caratteristiche biometriche. Contestualmente, sono state create apparecchiature robotiche di natura essenzialmente offensiva in grado di individuare ed eliminare in piena autonomia gli obiettivi precedentemente identificati. Tali soluzioni possono essere applicate a numerose apparecchiature militari come i carri armati. Da segnalare, in tal senso, la sperimentazione di AI sugli M1 Abram statunitensi, funzionale a velocizzare il riconoscimento e l’ingaggio con possibili target.
Ulteriori sperimentazioni e prototipi sono in fase di sviluppo anche nel settore marino e sottomarino. L’ utilizzo di Unmanned underwater vehicles (UUVs) e vascelli marini è funzionale alla massimizzazione delle capacità di pattugliamento, vigilanza e raccolta dati. La Marina Militare statunitense, ad esempio, impiega unità autonome di vigilanza in zone geografiche critiche per il commercio internazionale come gli stretti di Aden e di Hormutz, e in funzione di contrasto dei traffici illeciti di droga ed esseri umani nei mari centroamericani. In particolare, la Quinta Flotta USA sta lavorando con Israele sui sistemi unmanned e sull’integrazione dell’intelligenza artificiale (AI) nelle operazioni marittime. Durante i primi giorni di Maggio 2023, infatti, nel Golfo di Aqaba si è tenuta l’esercitazione militare Digital Shield. Alle manovre hanno partecipato membri dei sistemi unmanned della Flotta, personale della Task Force 59 e una nave senza equipaggio MANTAS Devil Ray T-38 (unmanned surface vessel, USV/ASV). L’obiettivo per gli Stati Uniti e i partner regionali è dotarsi di una flotta di 100 USV/ASV entro la fine dell’estate. Lo aveva già annunciato l’ammiraglio Brad Cooper, comandante della Quinta Flotta, nel corso della Fiera della Difesa IDEX di Abu Dhabi a febbraio 2023. I droni saranno fondamentali per una serie di compiti: dalla threat detection contro attività terroristiche e criminali al monitoraggio delle acque internazionali, passando per l’intelligence, triplicando di fatto le attuali capacità su questi versanti.
Dal canto suo, la British Royal Navy ha avviato diversi progetti sottomarini, che consentirebbero al Paese di diventare l’avanguardia nel contesto UUV europeo. In particolare, meritano speciale menzione il RNMB Harrier, un cacciamine senza equipaggio che a febbraio 2023 è stato chierato nel Golfo Persico, e il progetto Cetus, che porterà alla costruzione dei più grandi sottomarini autonomi europei (XLUUV). Questa tipologia di prototipi, seppur dotata di caratteristiche differenti, è già stata presentata e testata dalla Cina lo scorso febbraio. Beijing, peraltro, sarebbe stata la prima a riuscire ad implementare un modello XLUUV dotato di sistemi lanciasiluri a prua.
Di particolare rilevanza nell’economia dei conflitti armati moderni è lo sfruttamento dell’IA per il perfezionamento dei mini-droni commerciali utiilizzati per fini di combattimento. Identificati ed utilizzati per la prima volta dai gruppi jihadisti dell’ISIS in Siria e in Iraq, sono stati rinvenuti modelli forniti di IA durante la guerra civile libica, in Nagorno-Karabakh e largamente utilizzati nel contesto russo-ucraino. La nuova frontiera, ritenuta da alcuni come la rivoluzione del sistema di armi di distruzione di massa è rappresentata da sciami di droni (Drone swarms). L’utilizzo dell’IA nel training e nel controllo multiplo simultaneo degli UAV/UAS da combattimento permette di coordinare, attraverso una sola piattaforma di comando autonomo, migliaia di droni sulla base di informazioni e comandi centrali condivisi. Tale sistema è stato sperimentato per la prima volta nel 2013 dall’esercito statunitense, quando una simulazione ha mobilitato almeno 103 droni Perdix, i quali operavano contemporaneamete mediante un unico centro di comando e controllo (C2), basato su specifici algoritmi di IA. Nel contesto del conflitto russo-ucraino l’utilizzo di sciami di droni controllati da IA è un evento di ricorrenza ormai quotidiana. La tecnologia UAS garantisce una serie di vantaggi rispetto a un’offensiva condotta con velivoli tradizionali: è possibile apprezzare una riduzione sostanziale dei costi e dei rischi per l’incolumità dei piloti a fronte di una maggiore capacità di successo di raggiungere il target, grazie al loro numero e alle caratterische, che permettono di volare a quote non rilevabili dai radar.
Tuttavia, il numero potenzialmente indefinito di UAS che compongono gli swarms apre la strada ad interrogativi etici di assoluta rilevanza. In tal senso la natura degli sciami di droni concilia i due aspetti fondamentali appartenenti alle armi di distruzioni di massa. Il primo è la capacità di colpire un elevato numero di target in contemporanea e il secondo è la mancanza di garanzie che l’IA riesca a discernere quale siano i target reali da attaccare e quali da evitare. In particolare in presenza di un elevato numero di soggetti fisici all’interno della stessa area, non sarebbe possibile garantire l’effettiva discernita tra obiettivi civili da quelli militari. Sebbene la programmazione algoritmica sia un’attività umana alla base dell’azione dei droni di IA, i successivi processi di apprendimento automatico (Machine Learning) e accumulazione dati, svincolano l’azione dei droni dal controllo umano. Oltre alla loro indipendenza dal controllo umano, la loro rapidità di azione rende difficile attuare interventi di correzione una volta ingaggiata.
Da questa analisi possono essere tratte molteplici considerazioni. In primis, un aumento del livello di meccanizzazione dei conflitti determinerà una netta diminuzione dei rischi di perdite umane da parte dei soggetti attaccanti. Tale aspetto potrebbe facilitare il compito dei decisori politici, i quali si troverebbero ad affrontare minori disincentivi decisionali al momento di ordinare l’esecuzione di attacchi armati o singole operazioni armate. Qualora a tali fattori si considerino anche la maggior rapidità e precisione degli interventi posti in essere tramite sistemi remoti basati su IA, appare verosimile il rischio di proliferazione di operazioni militari in molte aree calde già a rischio di escalation. Tuttavia, al momento, è difficile immaginare un conflitto armato combattuto integralmente da forze autonome. Almeno nel medio-breve periodo, queste soluzioni continueranno la loro funzione di supporto e complementarità alle forze armate tradizionali.
Il processo di Weaponization dell’IA presenta evidenti criticità in termini etici. Nel settore militare, la regolamentazione internazionale delle armi operante tramite Intelligenza Artificiale è una tappa imperativa. Restrizioni all’utilizzo, possono limitare la proliferazione delle armi e diminuire il potenziale rischio di utilizzo di tali sistemi da parte di attori extra-statali. Un primo tentativo è stato avviato nel 2014 in seno alla Convenzione sulle Armi Convenzionali, che tuttavia non ha sortito effetti concreti. Nel corso del luglio 2023 si è tenuta la prima storica riunione del Consiglio di Sicurezza delle Nazioni Unite con oggetto i rischi derivanti dall’ Intelligenza Artificiale. Tra i tanti temi in agenda vi erano proprio le implicazioni della proliferazioni delle LAWS e l’istituzione di un’agenzia delle Nazioni Unite competente per regolamentazione dell’IA, sul modello di quella dell’energia atomica.