Cybersicurezza

Cybersecurity, l’AI amplifica un attacco ma non lo guida. La centralità umana resta decisiva

di Alessia Valentini

(AdobeStock)

3' di lettura

English Version

3' di lettura

English Version

Siamo ancora lontani da una AI senziente; prima di quel momento, questa tecnologia ha ancora molto da imparare: primo fra tutti essere addestrata a non farsi raggirare da criminali digitali che possono indurla ad operare con attacchi largamente automatizzati come quelli accaduti e documentati da Antrophic. La cautela è d’obbligo per non definire frettolosamente gli agenti AI come ‘armi autonome’, tuttavia, è doveroso aggiornare il livello di rischio associato a questi strumenti in relazione alle maggiori capacità di infliggere danni mirati, scalabili e ripetibili senza richiedere capacità aggiuntive all’utilizzatore. Come spiega Pierluigi Paganini esperto di cybersicurezza e intelligence.

Qualità degli attacchi largamente automatizzati

Nonostante l’alto livello di automazione dell’attacco sofisticato riportato da Antrophic (80(90%), «si è trattato di attività a bassa complessità e alta ripetitività», chiarisce Paganini, “l’AI Claude Code si è occupata delle fasi tattiche, mentre la parte strategica legata a progettazione dell’attacco, inizializzazione, impostazione obiettivi e supervisione di escalation, data exfiltration, inganno dei sistemi di sicurezza, era umana”. Si parla di estensione di capacità: “l’AI ha amplificato il lavoro di un attaccante esperto, aumentando la velocità e il volume delle operazioni tattiche”. Sul fronte del rischio invece, si deve aggiornare il livello di valutazione. «Se oggi l’AI automatizza la manovalanza tecnica, domani potrebbe estendere il supporto a decisioni sempre più complesse». La fase attuale è ancora ibrida. «L’AI ha abbassato la soglia tecnica (di chi attacca n.d.r.), velocizzato e reso scalabili gli attacchi, ma la ‘qualità’ ed efficacia restano dipendenti dalla capacità umana, la cui centralità è ancora indiscussa per le campagne significative e la variabilità degli obiettivi geopolitici, reputazionali ed economici stando ai report degli ultimi sei mesi».

Loading...

Nessuna autonomia decisionale

L’esperto chiarisce la necessità di “una certa cautela nel definire gli attacchi condotti con agenti AI come ‘armi autonome’. Anche se questi sistemi possono automatizzare gran parte delle attività tecniche, generare script, eseguire exploit o raccogliere dati”, aggiunge, “non possiedono autonomia decisionale, non scelgono obiettivi, non definiscono strategie e non comprendono il contesto geopolitico”. Prerogative queste, proprie dell’analisi, giudizio ed esperienza umana. “l’AI non sviluppa intenzioni proprie, ma esegue schemi e istruzioni progettati da persone. Per questo oggi l’AI rappresenta un potente amplificatore delle capacità umane, non una vera arma autonoma”. La percezione distorta si basa sulla distinzione intelligenza senziente e fra automazione avanzata che si ottiene per addestramento.

Impegno e costi di addestramento

“Addestrare un agente AI richiede risorse, competenze insieme a ricerca, sviluppo, test, infrastrutture, risorse economiche e una chiara intenzionalità umana” spiega l’esperto. Tutte peculiarità legate a un ingente sforzo di preparazione: “Nel caso dell’AI, per creare sistemi realmente offensivi, oltre ai citati, occorrono anche progettazione complessa, supervisione continua e una strategia impostata da esperti. Per automatizzare parti di un attacco informatico ci si basa su: “modelli statistici complessi che riproducono schemi sulla base dei dati su cui vengono addestrati, senza intenzionalità”. Per arrivare ad azioni offensive, “occorrono dataset molto estesi e accurati (codice, procedure tecniche, log di precedenti attacchi, conoscenza di configurazioni, pattern di exploit e interi flussi operativi) da pulire ed etichettare. Elemento che richiede mesi di lavoro di specialisti con competenze molto avanzate. L’AI non capisce da sola, cosa sia utile, dannoso o sfruttabile”. La successiva fase di addestramento è costosa. “richiede infrastrutture GPU o TPU di fascia alta, cluster dedicati, ingegneri del machine learning”. Anche la validazione del modello è dispendiosa: “passa per test controllati, rinforzo con feedback umani (Reinforcement Learning from Human Feedback-RLHF) e verifiche per indicare al modello quali pattern seguire e quali evitare”. Il modello generato esegue quanto imparato, ma “non possiede una visione strategica dell’attacco, né comprende contesto, conseguenze o obiettivi. Sono ancora i criminali a definire il target, valutare la superficie di attacco, progettare la catena operativa, coordinare fasi e priorità”, conclude l’esperto. A riprova che come sempre, la sola tecnologia non basta a definire un’arma.

Riproduzione riservata ©

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti