Se tutti gli occhi erano puntati su Rafah nelle scorse settimane grazie a un’immagine generata da un’intelligenza artificiale, il potere è rimasto nelle mani di chi sgancia bombe utilizzando quella stessa tecnologia, e non c’è attivismo performativo che tenga contro il programma di sterminio di massa – senza precedenti per dimensioni – che unisce obiettivi generati da un algoritmo a un’alta tolleranza per le morti casuali, implementato negli ultimi mesi di guerra da Israele sulla Striscia di Gaza.
Un’inchiesta condotta dalla rivista indipendente +972 e dalla sua controparte ebraica Local Call, ha reso nota per la prima volta l’esistenza di un programma IA sviluppato dall’esercito israeliano chiamato “Lavender”, che avrebbe svolto un ruolo centrale nei bombardamenti sconsiderati sugli edifici e nello spropositato numero di morti palestinesi, in particolare durante le prime settimane del conflitto.
Vecchie e nuove procedure
Israele ha una lunga storia di omicidi mirati, che negli anni violenti della Seconda Intifada (2000-2005) furono istituzionalizzati come pratica militare. Secondo l’inchiesta, tale pratica sarebbe stata notevolmente allentata dal 7 ottobre, spiegando come le Forze di Difesa israeliane (Idf) abbiano potuto mietere così tante vittime dichiarando al tempo stesso di aderire al diritto umanitario internazionale; aprendo un nuovo, pericoloso orizzonte sull’interazione uomo-macchina nei conflitti – una tendenza che non si limita a Israele. Durante le prime operazioni militari condotte dall’Idf, la generazione di obiettivi umani era un procedimento molto laborioso. Secondo diverse fonti dell’esercito citate nell’inchiesta, la decisione di incriminare un individuo, o di identificarlo come obiettivo legittimo, veniva prima discussa e poi sottoscritta da un consulente legale. Ma dall’attacco di Hamas del 7 ottobre, l’Idf ha cambiato marcia, abbandonando il meticoloso processo di selezione dei comandanti di alto-medio rango a favore di strumenti decisionali dotati di intelligenza artificiale in grado di analizzare enormi quantità di dati, identificare i probabili obiettivi e passare i loro nomi ad analisti umani per decidere cosa farne – analisti che nella maggior parte dei casi acconsentivano ad attaccare.
Liste di morte
Il sistema intelligente “Lavender” (letteralmente: Lavanda) ha stilato un elenco di quasi tutti gli abitanti di Gaza, unendolo a una vasta serie di input forniti dall’intelligence – dalle registrazioni video ai messaggi intercettati nelle chat, ai dati presi dai social media alla semplice analisi dei profili social – per stabilire la probabilità che un individuo fosse un combattente di Hamas o di un’altra fazione armata palestinese.
Spettava all’Idf individuare quale fosse il tasso di errore che era disposta a tollerare per confermare gli obiettivi forniti da “Lavender”, e per la maggior parte della guerra, quel tasso è stato grosso modo del 10 per cento. Durante le prime settimane del conflitto, con circa 37 mila miliziani sospettati – perlopiù di basso rango militare – l’esercito, secondo quanto riferito da un membro dell’Idf intervistato nell’inchiesta, avrebbe fatto affidamento quasi esclusivo su questo sistema «come se i suoi risultati venissero da un collega umano», senza verificare se i dati su cui si era basata la macchina fossero corretti. Un’altra fonte ha dichiarato che il personale militare svolgeva meramente la funzione di «passacarte» delle liste nere fornite da “Lavender” facendo «risparmiare molto tempo». «Dedicavamo all’incirca 20 secondi a ciascun target prima di autorizzare il bombardamento, verificando solo se l’obiettivo fosse maschio», ha dichiarato un altro ufficiale.
Inoltre, l’esercito israeliano colpiva sistematicamente i suoi obiettivi all’interno delle loro abitazioni private, unendo al sistema “Lavender” altre intelligenze artificiali come Gospel (letteralmente: Vangelo), creato per individuare gli edifici e le strutture che ospitavano i membri di Hamas, e i cui risultati venivano trattati letteralmente come “parola del Vangelo” e perciò bombardati, distruggendo così intere aree residenziali. Altri sistemi automatizzati come “Where’s Daddy” (letteralmente: dov’è papà), sono stati invece utilizzati per tracciare i singoli individui fino al loro rientro a casa, per poi colpire le abitazioni familiari. Di conseguenza, intere famiglie – la maggior parte donne e bambini o persone che non erano coinvolte nei combattimenti – sono state spazzate via dai missili israeliani grazie alle decisioni prese dall’intelligenza artificiale.
Omicidi di massa
Da queste rivelazioni emerge la questione circa il fatto se le tattiche utilizzate da Israele a Gaza siano genocide. Raphael Lemkin, il giurista ebreo polacco che coniò il termine “genocidio” dopo la Seconda guerra mondiale, scrisse: «Si dovrebbe pertanto riconoscere il crimine di genocidio come una cospirazione per sterminare gruppi nazionali, religiosi o razziali», e ciò in passato è stato perpetrato attraverso la carestia o la distruzione delle infrastrutture necessarie a sostenere la vita futura di una comunità; secondo alcuni osservatori sono state utilizzate entrambe queste tattiche a Gaza.
Ma l’esempio più lampante di una condotta genocida è l’atto di aprire il fuoco sui civili con l’intenzione di sterminarli in massa. Nonostante ci siano stati evidenti incitamenti al genocidio da parte di ufficiali israeliani al di fuori dalla catena di comando dell’Idf, il metodo con cui l’esercito israeliano finora ha selezionato e colpito i suoi obiettivi è ancora poco chiaro.
La questione riguarda gli esperti di diritto internazionale ed etica militare per via del principio del duplice effetto, che consente danni prevedibili ma non intenzionali se l’azione in sé non è collegata all’eventualità di questi danni, come nel caso di un bombardamento aereo contro un obiettivo legittimo che potrebbe avvenire anche nel caso ci siano civili di passaggio. Ma nel caso della guerra tra Hamas e Israele, la maggior parte degli avvocati e degli esperti di etica – e addirittura qualche ufficiale dell’Idf – hanno riscontrato il fallimento di qualsiasi principio di proporzionalità in questi attacchi, dove il concetto di distinzione è stato distorto oltre ogni ragionevole interpretazione. In altre parole, potrebbero essere crimini di guerra.
Selezione algoritmica
La selezione algoritmica dei target viene ampiamente utilizzata nella provincia cinese dello Xinjiang, dove il governo impiega strumenti simili a quelli israeliani per identificare i dissidenti sospetti tra la popolazione uigura. Sia nello Xinjiang che nei Territori palestinesi occupati, gli algoritmi che incriminano gli individui dipendono dalla ricchezza dei dati forniti, inaccessibili al di fuori delle aree sature di sensori e soggette a massicci sforzi di raccolta.
Anche l’Ucraina utilizza strumenti di analisi dotati di intelligenza artificiale per individuare le vulnerabilità del nemico lungo la sua vasta linea del fronte, e colpire probabili obiettivi militari russi più consistenti in rapporto alle scarse scorte di bombe, droni e colpi di artiglieria a sua disposizione. Ma l’intelligence ucraina è scettica sul bombardare solo target scelti dall’I.A., temendo che questo possa compromettere l’efficacia, l’inventiva e la prudenza delle decisioni operative umane – elementi chiave nella guerra tra Davide e Golia contro la Russia.
Durante la sua Guerra al terrorismo, anche gli Stati Uniti hanno bombardato diversi obiettivi utilizzando la selezione algoritmica, lasciando scegliere ai piloti il momento migliore in cui attaccare gli obiettivi forniti dalle valutazioni elaborate da un computer sui comportamenti sospetti notati a terra. Tuttavia, in breve tempo questa tattica fu abbandonata, ritenuta troppo controversa a causa dell’alto numero di vittime collaterali.
Ma l’utilizzo fatto da Israele di “Lavender”, “Gospel” e “Where’s Daddy”, dimostra come l’interazione uomo-macchina possa trasformarsi nella ricetta ideale per un disastro, strategico e morale. Nell’inchiesta di Local Call e +972, diverse testimonianze provenienti da ufficiali dell’intelligence hanno denunciato un crescente senso di disagio in tutti i livelli della catena di comando dell’Idf, per via della sfrontata prontezza dei comandanti nel colpire gli obiettivi generati automaticamente senza alcun riguardo apparente per le morti civili. In un’atmosfera emotiva «di crescente furia e senso d’emergenza nell’Idf, lassismo nella disciplina operativa e disponibilità a delegare la conformità alle leggi a una macchina, in nome dell’efficienza», come riferito da fonti dell’esercito, le politiche di Israele violano le norme emergenti sull’uso responsabile dell’intelligenza artificiale. «C’erano delle regole», ha dichiarato un ufficiale, «ma erano molto lasche. Morivano centinaia, se non migliaia di civili al giorno come vittime collaterali. Queste cose non erano mai successe prima».
Soluzioni tattiche…
Ma come si è arrivati a questo? La leadership politica israeliana ha assegnato all’Idf un compito impossibile: la totale distruzione di Hamas. All’inizio della guerra, il gruppo terroristico palestinese contava circa 30-40 mila combattenti. Dopo quasi due decenni di controllo sulla Striscia di Gaza, Hamas era dappertutto. Dopo il 7 ottobre, i suoi miliziani rappresentavano un rischio enorme per le forze terrestri dell’Idf che dovevano entrare a Gaza, a meno che i loro numeri non fossero stati decimati costringendo i suoi battaglioni a disperdersi o a rifugiarsi sottoterra.
Il fatto che “Lavender” riuscisse a generare un numero quasi infinito di obiettivi – e altri sistemi di supporto li collegavano a edifici da colpire via aerea in tempi rapidi – ha offerto all’Idf il mezzo ideale per aprire la strada a una possibile invasione di terra; ciò spiega perché quasi la metà delle vittime palestinesi sono state registrate durante le prime sei settimane di pesanti bombardamenti. L’interazione uomo-macchina, in questo caso, ha prodotto una soluzione tattica a un problema strategico.
Nonostante Israele sottolinei spesso la conformità esemplare delle sue forze armate alle norme liberali occidentali, il modo in cui l’Idf ha utilizzato l’intelligenza artificiale a Gaza, stando all’inchiesta di Local Call e +972, è in netto contrasto con esse. Nella dottrina militare Usa, ogni bombardamento deve mantenere le morti accidentali al di sotto di un valore definito apposta per le «vittime non combattenti» (Vnc). Nella maggior parte delle operazioni statunitensi le Vnc sono molto basse, e storicamente, lo sono state anche quelle di Israele. Quando, ad esempio, nel 2002 un bombardamento israeliano per uccidere il comandante di Hamas Salah Shehadeh provocò la morte inattesa di 14 civili, l’allora comandante dell’Idf Moshe Ya’alon dichiarò che non avrebbe mai dato il via all’operazione se avesse saputo che avrebbe ucciso così tante persone.
Ma nei recenti bombardamenti, l’uccisione del comandante di battaglione Wissam Farhat ha provocato la morte di oltre 100 «vittime non combattenti» – e l’Idf aveva anticipato quel numero di morti.
…e costi morali
“Lavender” avrebbe potuto essere utilizzata con maggior giudizio se non fosse stato per la combinazione mortale di una macchina in apparenza oggettiva e un’atmosfera intrisa di emotività, disperazione e desiderio di vendetta nei centri di comando dell’Idf.
Ma c’è un’altra lezione da imparare: l’intelligenza artificiale non può proteggersi dall’applicazione ossessiva, negligente e vendicativa di comandanti, operatori e norme istituzionali, ma può essere utilizzata da questi come scudo o giustificazione. Sotto enorme pressione, l’intelligence dell’Idf non ha dedicato praticamente alcuna risorsa nel verificare i suoi target, né le posizioni dei passanti dopo aver fornito i nomi dei loro obiettivi a programmi di intelligenza artificiale come “Where’s Daddy”.
Questi sistemi sono costruiti con uno scopo, e gli ufficiali farebbero meglio a ricordarsi di procedere con cautela quando ampliano il raggio d’azione o l’ambito di uno strumento informatico. I benefici operativi desiderati non sono garantiti, e la catastrofe di Gaza dimostra come i costi strategici – e morali – possono essere molto alti.