L’operazione militare israelo-americana in Iran e il conflitto russo-ucraino mostrano l’attuale progresso dell’intelligenza artificiale nel dominio militare e i suoi vantaggi nel processo decisionale, alla luce dei limiti intrinseci della tecnologia e del quadro etico-normativo di riferimento.
L’IA oltre il banco di prova
L’operazione israelo-americana condotta in Iran si aggiunge alla lista dei recenti conflitti armati da cui è possibile estrapolare rilevanti informazioni sull’attuale processo di integrazione dell’intelligenza artificiale (IA) nel dominio militare. L’esercito degli Stati Uniti, infatti, si è affidato al Maven Smart System (MSS), una piattaforma di analisi dati basata sull’IA e sviluppata da Palantir Technologies e alimentata da Claude AI di Anthropic e, prossimamente, da OpenAI.[1] L’MSS permette di ottenere il puntamento in tempo reale e il suggerimento delle coordinate di localizzazione precise degli obiettivi.[2]
Anche l’esercito israeliano si è affidato all’IA per identificare e colpire gli obiettivi sul campo, sulla base dell’esperienza maturata tra il 2023 e il 2025 nell’operazione militare a Gaza. Gospel è un sistema di IA che raccoglie, fonde e confronta diversi livelli di informazioni provenienti da vari set di dati per generare suggerimenti per gli analisti dell’intelligence[3] riguardo a oggetti che potrebbero essere considerati obiettivi militari – come tunnel, abitazioni di presunti militanti e ‘’obiettivi di potere’’, ovvero infrastrutture civili.[4] A differenza di Gospel, Lavender opera su singoli individui che potrebbero essere potenziali obiettivi umani – a Gaza è stato impiegato come database che unisce e ordina le informazioni sui potenziali membri di Hamas.[5] Grazie a tali sistemi, si stima che gli Stati Uniti e Israele abbiano colpito oltre 1.000 obiettivi nelle prime 24 ore dell’attacco all’Iran e più di 2.000 in una settimana.[6]
Anche la guerra russo-ucraina mostra un ampio impiego dell’IA. Il Presidente ucraino Volodymyr Zelensky ha recentemente dichiarato che, per la prima volta nella storia, una posizione nemica è stata conquistata esclusivamente utilizzando droni e sistemi robotici terrestri, proteggendo la vita umana.[7]
Il fronte in Medio Oriente e il fronte in Europa orientale, due dei principali teatri di guerra ad oggi, dimostrano il veloce stato di avanzamento del processo di integrazione di tecnologie militari basate su IA. È pertanto chiaro che non si tratta più di un dibattito futuribile: l’intelligenza artificiale è già sul campo di battaglia.
Modelli di ML, sistemi di AI-DSS e gli LLMs: il paradosso della ‘’fog of war’’
I sistemi di IA prima descritti sono basati su modelli di machine learning (ML): riconoscono e classificano pattern, per poi assegnarne un punteggio di probabilità. Pertanto, l’MSS, Gospel e Lavender operano nel processo decisionale per suggerire chi o cosa attaccare; quando attaccare e, talvolta, per prevedere gli attacchi avversari. I Decision Support System (DSS), grazie agli sviluppi tecnologici nel campo dei sensori e dei big data, unitamente ai progressi dell’IA – per cui si parla di AI-DSS – consentono di automatizzare il processo decisionale, con il vantaggio di aumentare la consapevolezza situazionale sul campo, migliorare la pianificazione operativa e fornire previsioni sugli eventi.[8] Sul campo di battaglia, pertanto, il processo decisionale è il primo ambito, per velocità di implementazione e per risultati osservabili, in cui l’IA è stata integrata nelle catene di comando degli eserciti.
Data la vasta quantità di dati disponibili sul campo di battaglia, gli esseri umani possono sentirsi sovraccarichi di lavoro nell’analisi di enormi quantità di informazioni. Ci può voler del tempo relativamente lungo per ottenere informazioni finali e, soprattutto, utilizzabili. I Large Language Models (LLMs) potrebbero svolgere un importante ruolo nel processo decisionale. Potrebbero infatti migliorare la ‘’spiegabilità’’ e la comprensione, interpretando e comunicando quella mole di dati all’operatore umano.[9] In altre parole, gli LLMs possano essere usati a valle – nell’interfaccia o per la sintesi degli output – alleggerendo il carico cognitivo degli operatori umani.
Eppure, anche quando si utilizzano algoritmi di IA, al netto dei vantaggi descritti, l’intero processo di gestione dei dati, dall’acquisizione all’analisi, rimane estremamente complesso. Ci si riferisce ad un livello di complessità noto come ‘’fog of war’’ (‘’nebbia di guerra’’): le informazioni sono incomplete, confuse, dinamiche e contraddittorie.[10] Tale complessità può essere alimentata, in particolare, da alcuni limiti tecnici intrinseci presenti nei sistemi di IA e nei modelli di ML.
Leggi anche:
- L’Intelligenza Artificiale, lo stato dell’arte della collaborazione internazionale
- Intelligenza Artificiale e tutela dei diritti umani: sfide e opportunità
- Intelligenza artificiale e impatti sociali: disuguaglianze digitali e controllo sociale
Fragilità, Adversarials e il ‘’Black Box problem’’: i limiti intrinseci dell’IA
È quindi fondamentale tenere presente che l’IA può fallire e che tali fallimenti comportano rischi avversi. In primo luogo, alcuni fallimenti dei sistemi di IA si verificano semplicemente a causa dell’intrinseca fragilità dell’IA stessa. Il funzionamento di un sistema di IA risiede nella sua capacità di operare entro i limiti dei suoi specifici confini. È dunque possibile che si palesino dei fallimenti quando si verificano cambiamenti sistematici nel contesto in cui il sistema di IA opera.[11]
Inoltre, i modelli di ML sono spesso incompleti, in quanto costruire un dataset di alta qualità, ovvero accurato, affidabile e contestualmente rilevante per l’ambiente operativo, non è un lavoro semplice. Questa difficoltà spiega l’esposizione dell’IA agli adversarial attacks.[12] Si pensi, ad esempio, ad attacchi di ‘’avvelenamento’’, con cui i dati di addestramento vengono manipolati per aumentare la probabilità che il modello produca classificazioni errate.[13] E questo è un rischio altamente pericoloso in un contesto di conflitto armato, dove obiettivi militari possono essere scambiati per obiettivi civili.
Infine, tuttavia, esistono anche scenari in cui il fallimento dei sistemi di IA deriva dall’intrinseca ‘’inspiegabilità’’ del sistema stesso. Infatti, i modelli di ML spesso operano come ‘’scatole nere’’: l’architettura e la logica interna sono sconosciute all’operatore umano.[14] Lo United Nations Institute for Disarmament Research (UNIDIR), in merito all’opacità dell’IA, ha sottolineato l’importanza cruciale della “prevedibilità” e della “comprensibilità” dei sistemi di IA militari, al fine di rispondere meglio a due domande fondamentali: “Cosa farà il sistema?” e “Perché lo fa?’’.[15]
Distinzione, proporzione e precauzione: le coordinate umanitarie nell’uso dell’IA in guerra per un controllo umano significativo
Qualsiasi nuova tecnologia militare deve essere impiegata nel rispetto delle leggi e delle norme vigenti del diritto internazionale umanitario.
In primo luogo, in un’operazione militare come quella in Iran, è fondamentale evitare che i sistemi di IA sorveglino o prendano di mira infrastrutture civili, come ospedali, reti idriche, centrali elettriche e così via; e che confondano comportamenti anomali con comportamenti ostili, prendendo di mira erroneamente i civili. Come visto precedentemente, errori nella classificazione dei bersagli, con conseguente violazione del principio di distinzione, non sono impossibili. Ciò comporterebbe una grave violazione del principio di distinzione tra civili e combattenti autorizzati e tra obiettivi civili e militari, sancito dagli Articoli 48 e 51 del Primo Protocollo Aggiuntivo del 1977 alla Convenzione di Ginevra del 1949 (AP I GC).[16]
Nel processo decisionale, i sistemi di IA devono essere in grado di informare i decisori con suggerimenti che mirano a limitare il più possibile i danni collaterali. Ad esempio, gli attacchi informatici guidati o innescati da sistemi di IA contro infrastrutture digitali devono evitare di compromettere la distribuzione dell’acqua, il sistema sanitario, i sistemi di allerta e di causare l’interruzione di servizi essenziali per la popolazione civile, secondo l’Art. 54 AP I GC.[17]
In aggiunta, è essenziale garantire la supervisione e il controllo umano sui sistemi di IA nel rispetto del principio di precauzione così come sancito dall’Art 57 AP I GC.[18] In particolare, causare danni inutili e incontrollabili è un rischio rilevante quando si impiegano sistemi di IA in grado di di operare sulla base di input ambientali – e non solo di addestramento.
Il rispetto delle norme di diritto garantisce, implicitamente, la possibilità di individuare e attribuire la responsabilità in caso di crimini di guerra. Un problema, quello della responsabilità, molto delicato, poiché nasce dal divario che si crea tra l’operatore in comando e il sistema di IA. Per colmare tale divario, è doveroso mantenere un controllo umano che sia significativo[19]: da un lato, l’uomo è tenuto a prendere le decisioni letali; dall’altro lato, l’uomo deve sempre poter intervenire nei casi di fallimento, anche quando il sistema opera autonomamente.
Per una valutazione etica dei sistemi di IA
Carl von Clausewitz affermava nel 1832 che l’annientamento del nemico, insito nel concetto di guerra, non è turbato dal grado di civiltà: al massimo, lo sviluppo tecnologico riduce l’influenza dell’istinto e allarga, invece, quella dell’efficacia della forza. E infatti, l’impiego dell’IA nei conflitti armati interviene direttamente sul metodo di conduzione delle ostilità. Le preoccupazioni etiche delle organizzazioni internazionali e non governative, dei decisori politici e degli analisti, sono mosse dalla considerazione dell’insieme dei casi in cui un sistema di IA non è addestrato secondo i principi umanitari o generi effetti avversi. A differenza di quanto sia logico pensare, l’impiego dell’IA – nello stato dell’arte attuale – non annulla le ‘’frizioni’’ della guerra, ovvero gli elementi imprevedibili, che impediscono agli scenari di guerra di essere perfettamente programmati e previsti. Per questo è importante ribadire la rilevanza etica della legal review preventiva e dell’introduzione di standard minimi di ‘’spiegabilità’’[20], alla luce dei limiti prima descritti.
Note
[1] Anthropic si è rifiutata di consentire l’uso illimitato della sua tecnologia per le armi autonome e, pertanto, a seguito di questa controversia, i vertici statunitensi stanno procedendo alla sostituzione di Claude con OpenAI. Brett Wilkins, ‘’ Israel Accused of Using AI to Pick Iran Targets ‘Without Any Human Oversight’—Just Like in Gaza’’, 5 Marzo 2026, Common Dreams, https://www.commondreams.org/news/us-israel-ai-iran
[2] Carlotta Kozlowskyj, ‘’Iran conflict as a testing ground for AI warfare systems’’, 2026, Bloomsbury Intelligence and Security Institute (BISI), https://bisi.org.uk/reports/iran-conflict-as-a-testing-ground-for-ai-warfare-systems
[3] Michael N. Schmitt, ‘’Israel – Hamas 2024 Symposium – The Gospel, Lavender, and the Law of Armed Conflict’’, 2024, Lieber Institute West Point https://lieber.westpoint.edu/gospel-lavender-law-armed-conflict/
[4] ‘’Questions and Answers: Israeli Military’s Use of Digital Tools in Gaza’’, 2024, Human Rights Watch, https://www.hrw.org/news/2024/09/10/questions-and-answers-israeli-militarys-use-of-digital-tools-in-gaza
[5] Ivi, Michael N. Schmitt, 2024
[6] Ivi, Carlotta Kozlowskyj, 2026
[7] Kateryna Shkarlat, ‘’No infantry needed. Ukrainian robots, for first time, capture Russian position ‘’— Zelenskyy, 2026, RBC-Ukraine, https://newsukraine.rbc.ua/news/no-infantry-needed-ukrainian-robots-for-first-1776101967.html
[8] Emelia Probasco, Helen Toner, Matthew Burtell, Tim G. J. Rudner, ‘’AI for Military Decision-Making: Harnessing the Advantages and Avoiding the Risks’’, 2025, Center for Security and Emerging Technology(CSET),p.11 https://cset.georgetown.edu/wp-content/uploads/CSET-AI-for-Military-Decision-Making.pdf
[9] Elisabeth Hoffberger-Pippan, ‘’ChatGPT for the Military? Large Language Models in the Military Domain and the Role of Article 36 Weapons Reviews’’, p. 110, in Bérénice Boutin, Taylor Kate Woodcock, Sadjad Soltanzadeh, ‘’Legal, Ethical, and Technical Dilemmas in Military Artificial Intelligence’’, 2026, T.M.C. Asser Press, https://link.springer.com/book/9789462657588
[10] Ivi, Emelia Probasco, Helen Toner, Matthew Burtell, Tim G. J. Rudner, 2025, p. 6
[11] Ioana Puscas (2023) “AI and International Security: Understanding the Risks and Paving the Path for Confidence-Building Measures“, UNIDIR, Geneva, Switzerland, p. 17-18 [12] M. Xue, C. Yuan, H. Wu, Y. Zhang and W. Liu. ‘’Machine Learning Security: Threats, Countermeasures, and Evaluations’’, in IEEE Access, vol. 8, pp. 74720-74742, 2020
[13] Brink, N, Yori Kamphuis, Yuri Maas, Gwen Jansen Ferdinandus, Jip van Stijn, Bram Poppink, Puck de Haan, e Irina Chiscop, ‘’Adversarial AI in the Cyber Domain’’, White paper. TNO, 2023. www.tno.nl/en/safe
[14] Gordon, S.E., ‘’Directed-Energy Non-Lethal Weapons: An Evaluation of their ethical use and potential applications’’, in ‘’Disruptive and game changing technologies in modern warfare – Development, Use, and Proliferation’’, Springer, USA, 2020.
[15] Holland Michel, Arthur. 2020. “The Black Box, Unlocked: Predictability and Understandability in Military AI.” Geneva, Switzerland. https://doi.org/10.37559/SecTec/20/AI1
[16] Art. 48, Regola fondamentale: ‘’Al fine di garantire il rispetto e la protezione della popolazione civile e dei beni civili, le Parti in conflitto devono in ogni momento distinguere tra la popolazione civile e i combattenti e tra beni civili e obiettivi militari e, di conseguenza, devono dirigere le proprie operazioni solo contro obiettivi militari’’. Art. 51, comma 2, ‘’La popolazione civile in quanto tale, così come i singoli civili, non deve essere oggetto di attacco. Sono vietati gli atti o le minacce di violenza il cui scopo primario è quello di seminare il terrore tra la popolazione civile.’’
[17] Art. 54: ‘’È vietato attaccare, distruggere, rimuovere o rendere inutilizzabili beni indispensabili alla sopravvivenza della popolazione civile, quali generi alimentari, aree agricole per la produzione di generi alimentari, colture, bestiame, impianti e forniture di acqua potabile e opere di irrigazione, al fine specifico di privarli del loro valore di sostentamento per la popolazione civile o per la Parte avversaria, qualunque sia il motivo, sia esso per affamare i civili, costringerli ad abbandonare la propria abitazione o per qualsiasi altro motivo’’.
[18] Art. 57, 2 (ii-iii): ‘’Take all feasible precautions in the choice of means and methods of attack with a view to avoiding, and in any event to minimizing, incidental loss of civilian life, injury to civilians and damage to civilian objects;’’ and ‘’refrain from deciding to launch any attack which may be expected to cause incidental loss of civilian life, injury to civilians, damage to civilian objects, or a combination thereof, which would be excessive in relation to the concrete and direct military advantage anticipated.’’
[19] Il concetto di controllo umano significativo (MHC, Meaningful Human Control) è ancora oggi ampiamente discusso in letteratura e in sedi governative, soprattutto in ambito di sistemi d’armi autonome. Per un approfondimento, si rimanda: Horowitz, Michael C., Scharre, P., Meaningful Human Control in Weapon Systems: A Primer. CNAS Working Paper, March 2015. Center for a New American Security (CNAS); Trabucco, L. What is Meaningful Human Control, anyway? Cracking the Code on Autonomous Weapons and Human Judgment. Modern War Insitute at West Point (2023); Bo, Marta, Laura Bruun, e Vincent Boulanin. Retaining Human Responsibility in the Development and Use of Autonomous Weapon Systems: On Accountability for Violations of International Humanitarian Law Involving AWS. Stockholm: Stockholm International Peace Research Institute (SIPRI), October 2022; Kwik, J. The Conceptual Roots of the Criminal Responsibility Gap in Autonomous Weapon Systems. Melbourne Journal of International Law 24, no. 1 (2023): 1–25; Kwik, J., A Practicable Operationalisation of Meaningful Human Control. Laws 11, no. 3 (2022): 43; Amoroso, D., Tamburrini, G., Toward a Normative Model of Meaningful Human Control over Weapons Systems. Ethics & International Affairs 35, no. 2 (2021). Cambridge University Press, Carnegie Council for Ethics in International Affairs.
[20] Art. 36 AP I GC: ‘’ Nello studio, nello sviluppo, nell’acquisizione o nell’adozione di una nuova arma, mezzo o metodo di guerra, un’Alta Parte contraente ha l’obbligo di determinare se il suo impiego sarebbe, in alcune o in tutte le circostanze, vietato dal presente Protocollo o da qualsiasi altra norma di diritto internazionale applicabile all’Alta Parte contraente.’’
Foto copertina: L’intelligenza artificiale è già sul campo di battaglia













