Guerra e intelligenza artificiale, il rischio sistemico: quando gli algoritmi anticipano la decisione umana
6' di lettura
6' di lettura
L’intelligenza artificiale (IA) sta trasformando rapidamente numerosi settori, dalla medicina al commercio, ma uno degli ambiti più critici e controversi è quello militare. L’utilizzo dell’IA nei conflitti solleva questioni che vanno ben oltre l’efficienza operativa: rischi di escalation incontrollata, violazioni del diritto internazionale umanitario, delega delle decisioni di vita e di morte a sistemi automatizzati e, in ultima analisi, la prospettiva inquietante di escludere del tutto gli esseri umani dalle catene di comando e controllo militare.
Attualmente, molte tecnologie militari basate sull’IA sono concepite come strumenti di supporto alla decisione, non come sistemi completamente autonomi che scelgono da soli quando e chi colpire. L’intelligenza artificiale viene impiegata soprattutto per analizzare enormi quantità di dati, individuare possibili obiettivi, supportare la logistica e accelerare processi decisionali che un essere umano, da solo, non riuscirebbe a gestire con la stessa velocità.
Tuttavia, quanto sta emergendo nel conflitto tra Iran, Israele e Stati Uniti mostra quanto questa distinzione stia diventando sempre più sottile e potenzialmente pericolosa. Il caso della scuola di Minab, colpita da un missile Tomahawk con centinaia di vittime civili, dimostra come l’integrazione tra sistemi di analisi automatica e decisioni operative possa amplificare errori già presenti nei dati. Secondo le ricostruzioni, il comando militare avrebbe utilizzato informazioni di intelligence obsolete, forse integrate o processate da sistemi di analisi basati su IA per accelerare l’operazione militare. In uno scenario in cui l’IA aiuta a generare, filtrare o classificare obiettivi, la velocità del processo decisionale aumenta, ma allo stesso tempo si riduce il tempo per la verifica umana.
Il problema non è quindi soltanto tecnico ma sistemico. L’IA non decide formalmente di colpire un bersaglio, ma influenza la catena decisionale che porta a quella scelta. Strumenti come il Maven Smart System, che aggregano dati da satelliti, sensori e comunicazioni, permettono di identificare pattern e suggerire target con una rapidità senza precedenti. Ma se i dati di partenza sono errati o incompleti, l’IA rischia di amplificare l’errore su scala industriale, rendendo più probabili tragedie come quella di Minab.
L’aspetto più allarmante è che tutto questo sta avvenendo mentre si sta consolidando un complesso militare-industriale centrato sull’intelligenza artificiale, in cui governi e grandi aziende tecnologiche competono per la supremazia strategica. Sistemi sviluppati da aziende come Anthropic o OpenAI, integrati in piattaforme di analisi dati di società come Palantir Technologies, vengono sempre più utilizzati per intelligence, pianificazione militare e simulazioni operative. Anche se ufficialmente restano strumenti di supporto, il confine tra “assistere” e “determinare” una decisione militare diventa rapidamente sfumato quando l’IA è quella che filtra e organizza le informazioni su cui si basa l’attacco.





