Cybersicurezza

Guerra e intelligenza artificiale, il rischio sistemico: quando gli algoritmi anticipano la decisione umana

di Pierluigi Paganini

Adobestock

6' di lettura

English Version

6' di lettura

English Version

L’intelligenza artificiale (IA) sta trasformando rapidamente numerosi settori, dalla medicina al commercio, ma uno degli ambiti più critici e controversi è quello militare. L’utilizzo dell’IA nei conflitti solleva questioni che vanno ben oltre l’efficienza operativa: rischi di escalation incontrollata, violazioni del diritto internazionale umanitario, delega delle decisioni di vita e di morte a sistemi automatizzati e, in ultima analisi, la prospettiva inquietante di escludere del tutto gli esseri umani dalle catene di comando e controllo militare.

Attualmente, molte tecnologie militari basate sull’IA sono concepite come strumenti di supporto alla decisione, non come sistemi completamente autonomi che scelgono da soli quando e chi colpire. L’intelligenza artificiale viene impiegata soprattutto per analizzare enormi quantità di dati, individuare possibili obiettivi, supportare la logistica e accelerare processi decisionali che un essere umano, da solo, non riuscirebbe a gestire con la stessa velocità.

Loading...

Tuttavia, quanto sta emergendo nel conflitto tra Iran, Israele e Stati Uniti mostra quanto questa distinzione stia diventando sempre più sottile e potenzialmente pericolosa. Il caso della scuola di Minab, colpita da un missile Tomahawk con centinaia di vittime civili, dimostra come l’integrazione tra sistemi di analisi automatica e decisioni operative possa amplificare errori già presenti nei dati. Secondo le ricostruzioni, il comando militare avrebbe utilizzato informazioni di intelligence obsolete, forse integrate o processate da sistemi di analisi basati su IA per accelerare l’operazione militare. In uno scenario in cui l’IA aiuta a generare, filtrare o classificare obiettivi, la velocità del processo decisionale aumenta, ma allo stesso tempo si riduce il tempo per la verifica umana.

Il problema non è quindi soltanto tecnico ma sistemico. L’IA non decide formalmente di colpire un bersaglio, ma influenza la catena decisionale che porta a quella scelta. Strumenti come il Maven Smart System, che aggregano dati da satelliti, sensori e comunicazioni, permettono di identificare pattern e suggerire target con una rapidità senza precedenti. Ma se i dati di partenza sono errati o incompleti, l’IA rischia di amplificare l’errore su scala industriale, rendendo più probabili tragedie come quella di Minab.

L’aspetto più allarmante è che tutto questo sta avvenendo mentre si sta consolidando un complesso militare-industriale centrato sull’intelligenza artificiale, in cui governi e grandi aziende tecnologiche competono per la supremazia strategica. Sistemi sviluppati da aziende come Anthropic o OpenAI, integrati in piattaforme di analisi dati di società come Palantir Technologies, vengono sempre più utilizzati per intelligence, pianificazione militare e simulazioni operative. Anche se ufficialmente restano strumenti di supporto, il confine tra “assistere” e “determinare” una decisione militare diventa rapidamente sfumato quando l’IA è quella che filtra e organizza le informazioni su cui si basa l’attacco.

In altre parole, non siamo ancora davanti a sistemi che decidono autonomamente di colpire un bersaglio, ma stiamo entrando in una fase in cui la guerra viene progressivamente “pre-decisa” dagli algoritmi che selezionano e interpretano i dati. Ed è proprio questa zona grigia, tra supporto e automazione della decisione, che rappresenta oggi il vero rischio strategico, etico e politico della guerra nell’era dell’intelligenza artificiale.

Un rapporto della National Security Commission on Artificial Intelligence (NSCAI), organo istituzionale statunitense, avverte che l’integrazione dell’IA nei sistemi d’arma pone questioni “rilevanti rispetto alla legalità, alla sicurezza e all’etica” di tali sistemi, soprattutto quando questi superano il ruolo di mero strumento di supporto e acquisiscono livelli crescenti di autonomia.

L’impiego dell’intelligenza artificiale nei sistemi d’arma sta aprendo scenari profondamente preoccupanti, in particolare con lo sviluppo delle Lethal Autonomous Weapon Systems (LAWS), armi in grado di selezionare e colpire un obiettivo senza intervento umano diretto. Spesso definite “killer robot”, queste tecnologie sollevano interrogativi etici e di sicurezza senza precedenti, perché trasferiscono a un sistema algoritmico decisioni che riguardano la vita e la morte.

Uno dei principali rischi riguarda l’opacità del processo decisionale. Molti sistemi di IA funzionano come vere e proprie “scatole nere”: anche i loro sviluppatori non sempre riescono a comprendere esattamente quale sarà la decisione presa in un contesto specifico. Questo rende estremamente difficile prevedere o spiegare il comportamento di un’arma autonoma in situazioni reali. Inoltre, sistemi addestrati in ambienti controllati possono reagire in modo imprevedibile in scenari complessi come il campo di battaglia, con il rischio concreto di colpire obiettivi civili o generare effetti non intenzionali.

Un’altra preoccupazione cruciale riguarda la possibile esclusione dell’essere umano dalla catena decisionale militare, la cosiddetta kill chain. Con l’aumento della velocità dei sistemi di combattimento automatizzati, il tempo per la verifica umana si riduce sempre più. Tuttavia, l’IA non è in grado di applicare in modo affidabile principi fondamentali del diritto internazionale umanitario, come la distinzione tra combattenti e civili o la proporzionalità nell’uso della forza. Senza un controllo umano significativo, questi principi rischiano di essere violati.

Infine, esiste il pericolo di escalation incontrollata dei conflitti. Sistemi autonomi che reagiscono in frazioni di secondo possono interpretare erroneamente segnali o movimenti come minacce e rispondere automaticamente, dando origine a dinamiche di conflitto rapidissime, talvolta definite flash wars. In tali scenari, gli esseri umani potrebbero non avere il tempo materiale per intervenire e fermare l’escalation, aumentando il rischio di errori tragici e di crisi militari difficili da contenere.

L’introduzione di sistemi d’arma autonomi basati sull’intelligenza artificiale apre uno dei dilemmi più inquietanti della guerra moderna: chi è responsabile quando una macchina prende decisioni letali? Se un sistema automatizzato colpisce un obiettivo civile o viola il diritto internazionale umanitario, la responsabilità diventa difficile da attribuire. Potrebbe ricadere sui programmatori che hanno progettato l’algoritmo, sui comandanti militari che ne hanno autorizzato l’impiego o sullo Stato che ha schierato il sistema. Tuttavia, il diritto internazionale non offre ancora risposte chiare a queste domande.

Negli ultimi anni la comunità internazionale ha iniziato a riconoscere la gravità del problema. Alle Nazioni Unite diversi Paesi hanno sostenuto la necessità di definire regole vincolanti sull’uso militare dell’intelligenza artificiale, mentre iniziative politiche promuovono il principio di una supervisione umana significativa nelle decisioni di attacco. Nonostante ciò, le grandi potenze restano divise e i negoziati procedono lentamente.

L’unica certezza è che la tecnologia avanzi molto più velocemente della regolamentazione. Se non verranno stabiliti limiti chiari, i futuri conflitti potranno essere sempre più guidati da sistemi automatizzati capaci di reagire in pochi secondi. In uno scenario estremo, l’integrazione dell’IA in sistemi strategici potrebbe perfino ridurre i tradizionali freni umani nelle crisi militari, aprendo la strada a escalation rapidissime e potenzialmente catastrofiche.

Conclusione

L’intelligenza artificiale non è più solo uno strumento: è un arbitro del destino umano. Promette efficienza e sicurezza, ma nelle mani di pochi miliardari e corporation, mossi da ideologie discutibili, diventa un’arma capace di riscrivere la nostra storia evolutiva, stabilendo chi conta e chi è sacrificabile. La guerra non è più decisa dall’uomo: algoritmi opachi selezionano obiettivi, accelerano conflitti e trasformano la catena di comando in un gioco in cui il giudizio umano rischi di diventare un optional.

Peter Thiel, Alex Karp e altre figure eminenti del panorama tecnologico mondiale, la moderna autocrazia, non solo modellano la tecnologia, ma plasmano il futuro politico e sociale.

Secondo Thiel, la politica è un ostacolo al progresso tecnologico dell’umanità e per questo motivo andrebbe sostituita dalla tecnocrazia, ovvero da un sistema di governo in cui il potere decisionale è affidato a esperti, tecnici e scienziati.

Tuttavia, la politica, in filosofia, non è solo governare, ma studiare come organizzare la vita comune per il bene collettivo, analizzando potere, giustizia e governo. Siamo davvero pronti a sacrificare questo concetto ancestrale per il profitto di pochi e l’evoluzione della civiltà delle macchine?

Thiel sostiene correttamente che la sfida globale sarà tra Usa e Cina per la supremazia nell’IA. Definisce “Anticristo” chi frena il progresso, tra eccessiva regolamentazione e ambientalismo e sottolinea che democrazia e libertà non sono più compatibili.

L’IA diventa così uno strumento di controllo sociale e politico, dove la vita e la morte, la libertà e il potere, sono decise da chi detiene la tecnologia, non dalla legge o dall’etica.

Se non si stabiliscono limiti globali e vincolanti, l’IA accelera conflitti, indebolisce la capacità umana di mediare e apre la strada a escalation incontrollabili. Le guerre potrebbero diventare flash, le decisioni mortali immediate, e il futuro una distopia in cui pochi decidono la sorte di molti. L’innovazione senza controllo rischia di trasformarsi in apocalisse silenziosa, e la sopravvivenza stessa della democrazia è messa a rischio.

Pierluigi Paganini, Ceo di Cyberhorus, Direttore Osservatorio in Cybersicurezza dell’Unipegaso e coordinatore scientifico Sole 24 Ore formazione

Riproduzione riservata ©
Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti