Guglielmo Tamburrini
Si parla molto di intelligenza artificiale (IA). E purtroppo si discute ancora di più della guerra. Mi propongo di considerare brevemente qui la relazione tra IA e guerra, evidenziando i nuovi rischi per la pace e l’escalation dei conflitti armati che emergono dalla diffusione di applicazioni militari dell’IA. I cittadini, i decisori politici e i movimenti per la pace e il disarmo devono essere consapevoli di tali rischi e di quanto si possa fare per la loro riduzione.
Le grandi potenze militari sono impegnate in una corsa alla militarizzazione dell’IA. Questa corsa è alimentata dalla convinzione che l’IA consentirà di acquisire importanti vantaggi militari sui nemici. Per la loro capacità di elaborare velocemente enormi volumi di dati, i sistemi dell’IA possono accelerare i processi decisionali richiesti per pianificare ed eseguire le azioni belliche. Le armi autonome controllate dall’IA – che possono eseguire un attacco senza richiedere la supervisione e l’autorizzazione dell’essere umano – consentirebbero di conseguire maggiore efficacia sul campo di battaglia e di ridurre il numero di soldati esposti al fuoco nemico.
Ai presunti vantaggi competitivi forniti dall’IA si accompagnano rischi significativi. Le decisioni e le azioni eseguite con il supporto dell’IA offrono nuove brecce per la violazione del Diritto internazionale umanitario in guerra. Le rapide interazioni tra sistemi dell’IA possono inoltre innescare delle escalation non volute dei conflitti, sfuggendo alle capacità di controllo degli esseri umani.
Per illustrare tali rischi parto dall’uso di sistemi di supporto alle decisioni basati sull’IA, considerando in particolare il caso dei sistemi di supporto alla scelta di potenziali obiettivi da bombardare nella Striscia di Gaza. Secondo un’indagine giornalistica condotta dalla rivista israeliana +972/Local Call e pubblicata nel 2024, le forze di difesa israeliane (IDF) hanno utilizzato sistemi di questo tipo (denominati Habsora, Lavender, e Where’s Daddy?) fin dall’inizio del loro intervento a Gaza, allo scopo di generare liste di potenziali obiettivi da bombardare (https://www.972mag.com/lavender-ai-israeli-army-gaza/ ; https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets).
Una squadra dell’IDF era incaricata di approvare o respingere le proposte di tali sistemi. Ma alcuni membri della squadra hanno affermato che l’automazione di questo compito ha portato a un incremento drastico del numero giornaliero di potenziali obiettivi da esaminare (“da 50 obiettivi all’anno a 100 obiettivi al giorno”). E hanno aggiunto: “Prepariamo gli obiettivi automaticamente e lavoriamo seguendo una check-list… Ci troviamo in una condizione di lavoro da fabbrica. Operiamo velocemente, non c’è tempo per esaminare a fondo le proposte del sistema. Abbiamo la percezione di essere giudicati in base al numero di obiettivi che riusciamo ad autorizzare”.
Si evince da queste affermazioni la preoccupazione per l’incremento “produttivo” impresso dall’IA, per la difficoltà di tener dietro alla velocità di elaborazione automatica delle informazioni e per la compromissione delle condizioni necessarie a dare un giudizio umano ponderato su ogni singola proposta del sistema di supporto alle decisioni. Si evince inoltre la pressione psicologica esercitata dai superiori, i quali hanno spinto i supervisori umani ad allinearsi al ritmo produttivo della macchina. Ma questo ritmo è esorbitante per le capacità cognitive degli esseri umani, e perciò ostacola l’esercizio del controllo umano di legittimità degli obiettivi militari da colpire. Il controllo di legittimità si incentra sulle norme del Diritto internazionale umanitario. Spiccano tra queste sia il principio di distinzione, che vieta di dirigere un attacco contro civili inermi ed altre categorie di persone estranee ai combattimenti, sia il principio di proporzionalità, che richiede di contenere i danni collaterali di un attacco in maniera commisurata degli obiettivi militari da conseguire.
Nello scenario descritto dall’inchiesta di +972/Local Call, l’IA viene usata per accelerare il ritmo delle azioni militari e sopraffare il nemico, sbarazzandosi di ogni residuo elemento di umanità e di condotta responsabile delle attività belliche. In questo contesto la presenza di esseri umani come decisori ultimi diventa solo un paravento di comodo. Il controllo umano viene infatti depotenziato, assumendo infine un ruolo puramente nominale e non sostanziale, a causa delle limitazioni del sistema cognitivo umano, che non può tenere testa alla velocità di elaborazione della macchina. L’imperfezione dei sistemi IA in questione, denunciata dall’inchiesta di +972/Local Call, rende ancora più grave il problema di un controllo umano insufficiente. I test di accuratezza eseguiti su tali sistemi avrebbero infatti evidenziato un tasso di errore del 10% per le proposte di obiettivi da attaccare, indicando chiaramente la necessità di un efficace filtro umano di legittimità.
Partendo da questo tassello – relativamente piccolo se immerso nel quadro più ampio e tragico delle azioni che hanno congiuntamente determinato i massacri indiscriminati della popolazione palestinese di Gaza – si può evidenziare un problema più generale che riguarda i sistemi IA utilizzati nel supporto alle decisioni belliche. Tali sistemi possono incorrere in errori gravi, fornendo proposte che comportano violazioni del Diritto internazionale umanitario. Una configurazione di controllo che riserva l’ultima parola agli esseri umani non è evidentemente sufficiente a garantire che essi si trovino effettivamente nella condizione di filtrare adeguatamente – basandosi su giudizi ponderati ed efficaci – le proposte avanzate della macchina. La pressione psicologica esercitata da autorità superiori, i disincentivi psicologici a contestare le proposte avanzate dall’IA e la mancanza di tempo indotta dalla velocità di elaborazione della macchina sono fonti sperimentalmente comprovate di pregiudizi ed errori sistematici che affliggono le capacità decisionali degli esseri umani. Bisogna perciò chiedersi se e a quali condizioni l’idea di combattere alla velocità dell’IA – perseguita competitivamente dalle potenze militari con il supporto delle grandi aziende che dominano il settore dell’IA – sia compatibile con il vincolo etico e giuridico di mantenere fermamente nelle mani degli esseri umani il controllo della guerra e le responsabilità attinenti.
Non sono solo i sistemi di supporto alle decisioni militari basati sull’IA a minare il controllo umano sulla guerra. Rischi analoghi emergono in relazione ai cosiddetti sistemi di arma autonomi. Perché un sistema d’arma sia considerato autonomo, esso deve essere capace di selezionare e attaccare un obiettivo senza richiedere ulteriori interventi da parte di un operatore umano dopo la sua attivazione. Per svolgere tali funzioni critiche, il sistema d’arma deve percepire in qualche misura l’ambiente circostante, selezionare dei potenziali obiettivi, pianificare l’azione e infine eseguire l’attacco. È perciò evidente che l’IA costituisce una fonte primaria e indispensabile di conoscenze e metodologie per lo sviluppo dei sistemi d’arma autonomi più avanzati, in quanto tecnologia abilitante per la percezione artificiale, il ragionamento, la pianificazione e l’esecuzione di azioni.
E’ attualmente in corso la sperimentazione di svariati sistemi d’arma autonomi (che d’ora in poi indico più in breve come armi autonome o AA). La loro eventuale utilizzazione – già prospettata nel caso della guerra russo-ucraina con l’uso di droni autonomi – pone un problema qualitativamente nuovo nella storia dell’interazione tra esseri umani e macchine in ambito bellico. La diffusione delle AA rende infatti il controllo umano sull’azione bellica tecnicamente superfluo. Al contrario di quanto è previsto nel caso dei sistemi di supporto alle decisioni – per le AA non è richiesto l’inserimento di operatori umani nel processo di elaborazione e decisione che conduce dalla selezione di un possibile obiettivo alla pianificazione dell’attacco contro di esso e infine all’esecuzione dell’attacco stesso. Le decisioni di attacco, con le conseguenze del caso sulla vita o la morte dei destinatari dell’attacco, possono così essere demandate interamente a una macchina.
Per quanto non sia necessario, per i motivi appena descritti, si ritiene opportuno e perfino indispensabile inserire degli operatori umani nel ciclo decisione-azione delle AA, a causa delle limitazioni e delle imperfezioni da cui sono affette le attuali tecnologie dell’IA. Abbiamo già detto degli errori percettivi e di valutazione nei sistemi di supporto alle decisioni. Errori gravi di questo genere non possono essere esclusi nemmeno da test stringenti di accuratezza dei sistemi IA. Bisogna inoltre considerare la limitata capacità dei sistemi dell’IA di adattarsi a contesti mutevoli e poco strutturati, come lo sono i campi di battaglia avvolti dalla cosiddetta “fog of war”. E bisogna tenere anche conto del cosiddetto problema del disallineamento tra scopi dell’essere umano e della macchina. Su questo problema ha richiamato l’attenzione Yoshua Bengio, uno dei padri della nuova IA basata sull’apprendimento automatico e attualmente il ricercatore più citato al mondo (https://www.adscientificindex.com/citation-ranking/ ). Il disallineamento di cui parla Bengio riguarda le discrepanze difficilmente rilevabili che possono intercorrere tra ciò che noi vogliamo insegnare a un sistema IA e ciò che esso ha veramente appreso ( https://yoshuabengio.org/2024/07/09/reasoning-through-arguments-against-taking-ai-safety-seriously/ ). Nella fattispecie delle AA, il disallineamento riguarda le discrepanze possibili tra i valori che regolano la condotta militare in guerra, codificati nel Diritto internazionale umanitario, e ciò che ha effettivamente imparato un’AA addestrata con metodologie di apprendimento automatico.
In base a queste e altre considerazioni sulle limitazioni delle attuali tecnologie dell’IA, nel 2021 il Comitato Internazionale della Croce Rossa (CICR) ha richiesto alla comunità internazionale degli Stati di regolamentare l’uso delle AA, proponendo il divieto assoluto per le AA che risultano incapaci di rispettare i vincoli del Diritto internazionale umanitario e imponendo vari vincoli su tutte le altre AA. Allo scopo di restringere la loro azione a obiettivi di natura esclusivamente militare e per garantire la supervisione umana su ogni specifico attacco, il CICR ha proposto limitazioni sulla durata, sull’area geografica e sulla portata dell’azione delle AA. Per il CICR bisogna inoltre imporre una supervisione in corso d’opera, offrendo agli operatori umani la possibilità cognitiva e operativa di intervenire tempestivamente per correggere le azioni dell’AA oppure per disattivarla completamente. Una possibilità di disattivazione tempestiva è fondamentale anche per evitare che le interazioni competitive tra le AA di eserciti contrapposti possano innescare rapide escalation dei conflitti che non sono state volute dai vertici militari e politici delle parti in conflitto.
La proposta del CICR è stata accolta con favore da una grande maggioranza degli Stati, sia in sede ONU sia in altri consessi diplomatici e politici internazionali. Bisogna però rilevare con preoccupazione che sono passati più di quattro anni dalla proposta del CICR, senza che sia stato finora sottoscritto un accordo sulla regolamentazione delle AA abilitate dall’IA. La lentezza dei colloqui e delle negoziazioni diplomatiche contrasta però con la rapidità della ricerca e degli sviluppi tecnologici nel settore delle AA. Vari sviluppi recenti in questo settore rischiano di minare le basi stesse della proposta di regolamentazione del CICR. E’ bene ricordare, a questo proposito, che nel 2023 l’aviazione militare statunitense ha condotto con successo delle prove sperimentali su un aereo da caccia, la cui navigazione aerea è stata interamente controllata da un sistema IA. Il caccia autonomo è stato testato nella sua capacità di eseguire manovre di attacco e di evasione in uno scenario di confronto aereo a distanza ravvicinata (dogfight) con un altro caccia. I piloti che erano presenti nella cabina di pilotaggio del caccia controllato dall’IA avevano facoltà di escludere il sistema IA e di assumere essi stessi il controllo della navigazione aerea. Ma nei test eseguiti non c’è mai stato bisogno di tale subentro (https://www.defensenews.com/air/2024/04/19/us-air-force-stages-dogfights-with-ai-flown-fighter-jet/ ). Dai test condotti nello scenario di un confronto aereo a distanza ravvicinata risulta evidente la possibilità tecnologica di trasformare questo aereo dotato di capacità autonome di navigazione e manovra in una vera e propria AA, dotandolo aggiuntivamente delle capacità di selezionare e attaccare un obiettivo. E non è ovvio che il comportamento di un siffatto velivolo da combattimento autonomo possa essere sottoposto alla supervisione di esseri umani, così come richiesto dal CICR, allo scopo di correggerne l’azione oppure di disattivarlo. I segnali di controllo degli operatori umani inviati da postazioni lontane possono diventare inefficaci per il ritardo (latenza) di trasmissione; e impossibili da impartire da postazioni più vicine, per esempio nelle missioni che comportano il sorvolo di territorio nemico o di zone militarmente contestate.
In conclusione, la perdurante assenza di una regolamentazione internazionale – a distanza di quasi un lustro dalla proposta del CICR e di tre lustri dall’inizio della discussione internazionale, diplomatica e politica sulle AA – non può che aggravare il problema posto da uno sviluppo incalzante delle applicazioni militari dell’IA, e cioè il rischio di una erosione progressiva del controllo degli esseri umani sui sistemi d’arma e sulle azioni belliche.
Lo scarto tra esigenza normativa e realtà tecnologica in rapida evoluzione mette impietosamente in luce i ritardi delle attuali iniziative degli organismi intergovernativi e della diplomazia sul controllo della militarizzazione dell’IA, in un clima più generale di diffusa sfiducia nel dialogo multilaterale in tema di controllo degli armamenti. Nonostante ciò – ma forse proprio a causa di ciò – c’è molto da fare per la cosiddetta società civile. Sappiamo che i fisici hanno denunciato e continuano a denunciare i pericoli esistenziali per l’umanità derivanti dallo sviluppo degli armamenti nucleari. I chimici e i biologi si sono adoperati per la messa al bando delle armi di distruzione di massa chimiche e biologiche, e continuano a lavorare per il rispetto dei relativi trattati e per la denuncia delle eventuali violazioni. Oggi tocca agli informatici e, in particolare, ai ricercatori nel campo dell’IA e dell’apprendimento automatico. Hanno il dovere di denunciare i rischi posti da una corsa incontrollata alla militarizzazione dell’IA. Una corsa che pone rischi non solo in relazione alle applicazioni che abbiamo qui rapidamente considerato, ma anche rischi associati all’uso di sistemi IA nelle strutture di comando e controllo delle armi nucleari, nelle operazioni di intelligence e ricognizione, nelle operazioni cibernetiche e nella cosiddetta guerra di propaganda e dell’informazione. Si tratta di passi necessari e urgenti per sviluppare una coscienza civile adeguata tra ricercatori dei settori scientifici e tecnologici coinvolti, decisori politici, movimenti dal basso e singoli cittadini all’insegna della difesa della pace, del controllo degli armamenti e del disarmo.
Per approfondire
In italiano c’è il libro Dai droni alle armi autonome, a cura di Francesca Farruggia e con prefazione di Giorgio Parisi, FrancoAngeli 2023. Il libro è liberamente scaricabile in formato e-book all’indirizzo https://www.francoangeli.it/Libro/Dai-droni-alle-armi-autonome?Id=28524
E anche
Amoroso D. (2024). Sistemi di supporto alle decisioni basati sull’IA e crimini di guerra: alcune riflessioni alla luce di una recente inchiesta giornalistica. Diritti umani e diritto internazionale, 2, 347-368.
Sono disponibili in inglese analisi più aggiornate di questioni poste dalla militarizzazione diffusa dell’IA. Ecco alcuni spunti:
Grand-Clément, S. (2023). Artificial Intelligence Beyond Weapons: Application and Impact of AI in the Military Domain, UNIDIR, Geneva, 2023. https://unidir.org/publication/artificial-intelligence-beyond-weapons-application-and-impact-of-ai-in-the-military-domain/
Nadibaidze A., Bode I, Zhang Q (2024). AI in Military Decision Support Systems: A Review of Developments and Debates. Odense: Center for War Studies, University of Southern Denmark. https://www.autonorms.eu/ai-in-military-decision-support-systems-a-review-of-developments-and-debates/
SIPRI (2025). Dilemmas in the policy debate on autonomous weapon systems, Commentary of the Stockholm International Peace Research Institute, February 2025. https://www.sipri.org/commentary/topical-backgrounder/2025/dilemmas-policy-debate-autonomous-weapon-systems
UNIDIR (2025). AI in the military domain. A Briefing Note for States. UNIDIR_AI_in_the_Military_Domain_A_briefing_note_for_States.pdf
UN Secretary General (2024). Lethal Autonomous Weapons Systems, Report to the UN General Assembly, 79th Session, 1 July 2024. https://digitallibrary.un.org/record/4059475?v=pdf

