Intervista

Cybersecurity: «È necessario proteggere le intelligenze artificiali per tutelare tutte le culture»

Secondo Eva Chen Ceo di Trend Micro i modeli di Ai diventano un moltiplicatore di impatti di cybersecurity e di fatto, sono un gamechanger delle dinamiche geopolitiche.

di Alessia Valentini

Eva Chen Ceo di Trend Micro

3' di lettura

English Version

3' di lettura

English Version

Eva Chen è il Ceo di Trend Micro: «Il software non è solo tecnologia ma definisce come lavorano le persone e l’AI generativa non è solo un modello linguistico, ma un mezzo capace di incidere sul pensiero e sulla cultura. È necessario proteggere le AI per tutelare tutte le culture».

Se si guarda alla AI solo come un fenomeno tecnologico si perde la visione d’insieme e l’insieme è un panorama vasto, in cui le dinamiche geopolitiche e le operazioni di cybersecurity si intrecciano fra loro. In questo quadro i modelli di Intelligenza Artificiale (AI) noti come Large Language Model (LLM) diventano un moltiplicatore di impatti di cybersecurity e di fatto, sono un gamechanger delle dinamiche geopolitiche. Per questo motivo le aziende tecnologiche di livello globale non possono non tenere conto del ruolo delle AI e della cybersecurity nella definizione delle loro strategie internazionali. Eva Chen Ceo di Trend Micro suggerisce un approccio da seguire.

Loading...

Geo-tecno-strategia guardando alle persone

Il Ceo di Trend Micro è oggi un manager di livello mondiale e nonostante questo incarna ancora e sempre quella attenzione al codice che la distingue fin dagli esordi: «il software - spiega - definisce come lavorano le persone, mentre l’AI ne influenza il linguaggio e quindi il pensiero. Questo effetto non va sottostimato. Oggi assistiamo alla trasformazione del software la cui infrastruttura abilitante è capovolta completamente dall’avvento delle AI generative, tanto da renderla la più grande rivoluzione degli ultimi 40 anni». Le AI generative sono basate sui dati, su cui si effettua addestramento per generare agenti di AI. I dati sono quindi alla base della architettura abilitante, piuttosto che essere ‘la merce di scambio” fra applicazioni web o in cloud. Ma l’elemento che cambia davvero la prospettiva, spiega la CEO, «è che i sistemi di AI, gli LLM, effettuano la generazione di linguaggio e il linguaggio per gli esseri umani contribuisce a dare forma al pensiero. Questo comporta una incidenza diretto sul modo di pensare umano e quindi, ha effetti diretti sulla cultura a livello del singolo, a livello di una organizzazione e naturalmente a livello di ogni singolo paese». Proprio per questo effetto così esteso, «le strategie di Trend Micro tengono conto delle persone e dell’effetto che le tecnologie hanno su di loro. Le persone costituiscono le organizzazioni e tutte insieme rappresentano un paese e una cultura».

Strategia adattiva per la sostenibilità dello sviluppo tecnologico

La manager chiarisce che «Trend Micro è una società di cybersecurity ma prima ancora una società di software, che ha avuto origine fuori dagli Stati Uniti e sebbene oggi molti degli introiti derivino dagli USA, di fatto più di un miliardo di dollari di profitti arrivano da paesi diversi, che hanno culture diverse». L’orientamento strategico che ne deriva è di attenzione alla diversità, «noi dobbiamo rispettare queste culture e rendere lo sviluppo tecnologico sostenibile per ogni paese rispetto alla sua cultura». La strategia nell’uso delle AI per la Cybersecurity deve quindi essere adattiva e flessibile per ogni paese in cui si opera: «le Strategie di sviluppo tecnologico delle AI e la loro protezione digitale deve tutelare e protegge il patrimonio culturale di ogni paese adattandosi ad esso riflettendo i valori e la cultura, affinché sia sostenibile nel lungo periodo».

Alcuni paesi si stanno rendendo conto solo oggi delle dinamiche di sovranità digitale e di come le tecnologie di AI generativa e cybersecurity possano incidere sul loro sviluppo, ma non tutti sono pronti per la fase successiva. Ecco perché la CEO sottolinea in proposito come sia necessario supportare tali esigenze con “interventi molto specifici, governando il codice con un approccio ingegneristico per poter arrivare fino al cuore della richiesta da indirizzare. Sia essa relativa alla gestione del rischio, alla protezione preventiva e proattiva o alla difesa avanzata”.

Accuratezza piuttosto che competizione

La qualità dei modelli di AI generativa è un elemento ulteriormente strategico. Eva Chen chiarisce come sia «difficile dimostrare la qualità di un modello. Tutti sono presi dalla velocità di arrivare primi e spesso entrano in conflitto con l’accuratezza finale». Nella sua visione e approccio invece c’e’ una impostazione di premessa «siamo un vendor globale e abbiamo una responsabilità: produrre sistemi accurati, che siano anche intrinsecamente sicuri e non contengano potenziali vulnerabilità. Quindi usiamo un approccio alla sicurezza proattiva per noi stessi e per essere garanti della sicurezza dei nostri modelli di AI».

Riproduzione riservata ©
Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti