Un paio di occhiali Ray-Ban che inquadrano una macchina del caffè rotta e suggeriscono come ripararla. È uno degli scenari immaginati da Meta per il suo nuovo modello di intelligenza artificiale, con cui il gruppo che controlla Facebook e WhatsApp ha lanciato la sua ultima sfida agli altri colossi del tech. Una corsa che secondo i sostenitori più entusiasti delle potenzialità dell’intelligenza artificiale promette di rivoluzionare non solo il settore ma anche la vita degli utenti.
«Nel prossimo futuro, ogni singola nostra interazione sarà mediata da un assistente di intelligenza artificiale», ha detto Yann LeCun, a capo della ricerca sull’intelligenza artificiale di Meta, durante una conferenza a Londra, in cui ha indossato sul palco gli “smart glass” Ray-Ban sviluppati dall’azienda.
Negli ultimi mesi, i mercati hanno premiato le aziende che si stanno distinguendo per i progressi nell’intelligenza artificiale, come Alphabet, Nvidia e Microsoft. Il loro successo ha trainato le borse azionarie a livello globale, che nel primo trimestre di quest’anno hanno conseguito i rendimenti migliori degli ultimi cinque anni.
«Penso che stiamo solo grattando la superficie di ciò che sarà possibile realizzare nei prossimi dieci anni e più», ha detto al Financial Times Demis Hassabis, amministratore delegato di DeepMind, acquisita da Google nel 2014. «Siamo all’inizio, forse, di una nuova era d’oro della scoperta scientifica, di un nuovo Rinascimento», ha sottolineato.
Per il momento, le big della tecnologia si stanno concentrando su software in grado di generare frasi, immagini e video sempre più indistinguibili, almeno nelle intenzioni, da quello che producono gli esseri umani.
In futuro, secondo una stima del Fondo monetario internazionale (Fmi), quasi il 40 per cento dei posti di lavoro a livello globale sarà interessato dai cambiamenti legati all’intelligenza artificiale. Ma le ricadute sull’economia reale non sono ancora evidenti. Secondo uno studio della Banca centrale europea, «gran parte dell’impatto sull’occupazione e sui salari (…) deve ancora essere visto».
Un laboratorio disumano
Ci sono invece ambiti in cui, secondo molti osservatori, il futuro è già arrivato. «La guerra in Ucraina sta innescando una rivoluzione nell’uso di droni con l’intelligenza artificiale», è il titolo scelto dal Washington Post per un articolo in cui ha definito il campo di battaglia ucraino, dove l’ampio ricorso a droni ha già segnato una novità, un «super laboratorio» per sperimentare velivoli di ultima generazione.
Secondo il quotidiano statunitense, sono più di 200 i produttori ucraini di droni, che sperimentano e migliorano i propri velivoli collaborando con militari in prima linea. Tra gli investitori c’è anche l’ex amministratore delegato di Google, Eric Schmidt. «Il futuro della guerra sarà dettato e condotto dai droni», ha dichiarato l’ex manager, che in passato ha presieduto il consiglio per l’innovazione del Pentagono e in una recente intervista ha paragonato l’avvento delle armi assistite dall’intelligenza artificiale a quello delle atomiche.
Un accostamento fatto anche da altri esponenti dell’establishment della difesa statunitense. «Proprio come la corsa alle armi nucleari del secolo scorso, la corsa alle armi dell’intelligenza artificiale definirà quella attuale. Chiunque vincerà avrà un vantaggio militare netto», hanno scritto sul Wall Street Journal l’ex marine Elliot Ackerman e James Stavridis, ex comandante supremo della Nato. I due hanno ricordato che per lo stesso costo della portaerei Uss Gerald R. Ford, finita di costruire recentemente al prezzo di 13 miliardi di dollari, un Paese potrebbe scegliere invece di acquistare 650mila droni iraniani Shahed, gli stessi che Mosca ha usato in Ucraina. Grazie all’intelligenza artificiale, sarà possibile coordinare questi “sciami” di droni, per renderli in grado di sopraffare anche i sistemi di difesa più sofisticati.
“Sciami” assassini
Per contrastare questa minaccia, resa ancora più concreta dagli attacchi delle forze yemenite Houthi nel Mar Rosso, il Pentagono sta correndo ai ripari. Dal 2020, secondo una ricerca della Georgetown University, il dipartimento di Difesa statunitense ha siglato almeno cinque contratti che fanno esplicitamente riferimento agli “sciami” di droni.
Nel frattempo la tecnologia continua a fare passi in avanti. Sia in Ucraina che in Russia ci sono aziende che negli ultimi mesi hanno dichiarato di aver sviluppato droni che, grazie all’intelligenza artificiale, sono in grado di operare autonomamente e senza l’intervento di un operatore umano.
L’ucraina Saker ha dichiarato che il suo drone Scout ha già condotto attacchi su piccola scala in maniera autonoma. Anche il drone russo Lancet-3 sarebbe in grado, secondo il produttore Zala, di identificare autonomamente i bersagli e attaccare. «Entrambe le parti dichiarano di utilizzare l’intelligenza artificiale per migliorare la capacità dei droni di colpire i bersagli, ma probabilmente l’impiego è limitato», ha scritto la ricercatrice Stacie Pettyjohn in un rapporto del think tank statunitense Center for a New American Security (Cnas).
Se il caso ucraino fosse confermato, si tratterebbe del primo utilizzo di droni senza l’intervento di un operatore umano. Nel 2021, un rapporto di esperti delle Nazioni Unite aveva parlato di un sospetto attacco avvenuto l’anno precedente in Libia, che però non è mai stato dimostrato. Anche se non risultano Paesi che abbiano ancora utilizzato in combattimento mezzi in grado di uccidere autonomamente, la tecnologia per realizzarli già esiste e pone di per sé numerose questioni etiche, militari e legali.
Le velocità a cui uno sciame di droni autonomi sarebbe in grado di operare potrebbe superare le capacità umane di reazione, al punto da escludere le persone da decisioni operative. Il rischio immaginato da alcuni studiosi è di un mondo in cui le scelte vengono sempre più delegate alle macchine. Queste finirebbero anche per pianificare e condurre intere campagne militari riducendo sempre più il ruolo degli umani, incapaci anche di porre fine alle guerre da loro stessi iniziate.
Senza limiti
È l’ipotesi fatta dall’autore Paul Scharre, del Center for a New American Security (Cnas), che su Foreign Affairs ha formulato cinque proposte per contenere la minaccia rappresentata dalle armi autonome. Secondo Scharre, i governi dovrebbero imporre una supervisione all’uso militare dell’intelligenza artificiale, mettere al bando armi autonome in grado di colpire persone, elaborare protocolli per prevenire possibili incidenti, limitare agli esseri umani il controllo delle armi nucleari e adottare linee guida sul funzionamento dei droni. «Senza limiti, l’umanità rischia di precipitarsi verso un futuro pericoloso, fatto di conflitti condotti da macchine”, ha scritto Scharre, avvertendo che la finestra per agire si sta «chiudendo rapidamente».
Finora Stati Uniti e Russia si sono opposti a un trattato che metta al bando le armi autonome, sostenendo che le norme esistenti sono sufficienti. Mentre i promotori del divieto si sono rivolti all’Assemblea generale delle Nazioni Unite, nel 2023 Washington ha formulato una dichiarazione sull’uso responsabile dell’intelligenza artificiale in ambito militare, che finora ha raccolto l’adesione di più di 50 Paesi, tra cui l’Italia. La “Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy” non vieta le armi autonome, ma si limita a stabilire indicazioni generali per il loro utilizzo, come garantire test adeguati per ridurre il rischio di incidenti. Inoltre non prevede restrizioni sulle forme più pericolose di armi autonome, come quelle da cui mette in guardia Scharre. L’impegno ad autoregolarsi, tuttavia, può non bastare a evitare gli scenari peggiori.
“Polvere magica”
«Le decisioni vengono prese da persone in carne ed ossa. Nell’ambito della difesa, eticamente parlando, diamo molta importanza a questo». Così l’anno scorso il responsabile per l’intelligenza artificiale della divisione di cyber intelligence dell’esercito israeliano aveva parlato delle regole che l’Idf si era data per utilizzare una nuova, sofisticata, applicazione dell’intelligenza artificiale. Durante una conferenza a febbraio 2023 il “colonnello Yoav” aveva parlato del nuovo sistema che l’esercito israeliano stava usando per identificare «persone pericolose» sulla base di caratteristiche attribuite ai miliziani palestinesi.
«Diciamo che abbiamo alcuni terroristi che formano un gruppo e ne conosciamo solo alcuni», aveva detto, spiegando che il sistema era in grado di scovare i comandanti delle squadre missilistiche di Hamas. «Usando la nostra polvere magica, la scienza dei dati, siamo in grado di trovare il resto». Durante la presentazione “Yoav” aveva descritto il procedimento con cui venivano scelti gli obiettivi, che poi dovevano essere autorizzati da «persone in carne e ossa». Procedure che, come abbiamo visto, dopo gli attacchi del 7 ottobre sono state largamente dimenticate.