Tecnologia

Il supercalcolo entra in azienda per accelerare l’innovazione

Gli analisti stimano che entro il 2027 il 40% delle imprese a livello globale investirà in infrastrutture di calcolo disegnate per l’Ai

di Antonio Larizza

Il supercomputer tedesco Jupiter Booster, primo sistema di calcolo di classe exascale acceso in Europa (foto di Sascha Kreklau)

3' di lettura

English Version

3' di lettura

English Version

L’adozione dell’intelligenza artificiale in azienda è vicina a una svolta. Presto la partita non si giocherà più solo sul software, ma anche sulla potenza di calcolo. Entro il 2027 il 40% delle imprese investirà in infrastrutture di supercalcolo disegnate per l’intelligenza artificiale, con l’obiettivo di sviluppare applicazioni avanzate, aumentare la produttività o difendere il proprio vantaggio competitivo. O tutte queste cose insieme. Il bisogno di potenza di calcolo ridisegnerà le priorità per la spesa It, aprendo un nuovo ciclo di investimenti industriali.

Lo scenario è descritto nel report Top strategic technology trends for 2026, con cui gli analisti di Gartner tracciano i trend tecnologici dei prossimi cinque anni. Se confermato, potrebbe segnare l’avvio di una nuova fase industriale per l’intelligenza artificiale al servizio delle imprese. Una fase segnata dallo sviluppo di modelli più maturi e complessi, dall’automazione di processi critici e, non ultimo, dalla necessità di accelerare l’innovazione.

Loading...

La convergenza tra supercalcolo e intelligenza artificiale non è una novità. È anzi alla base della nascita dell’intelligenza artificiale generativa, lanciata nel 2022 da OpenAI con ChatGpt, e di tutti i suoi derivati. Nascita che è stata resa possibile proprio dall’incontro tra le potenti Gpu Nvidia e gli algoritmi capaci di addestrare i grandi modelli linguistici (LLM). Incontro che ha reso artificiale l’intelligenza, dando vita a una tecnologia in grado di comprendere il linguaggio naturale e generare autonomamente testi, video e immagini.

Questo gioco dell’imitazione si basa sull’addestramento dei modelli. E l’addestramento richiede ingenti risorse di calcolo. L’ente internazionale Ieee (Institute of electrical and electronics engineers) stima che per alimentare l’intelligenza artificiale già oggi i data center consumino, a livello globale, più dell’intero Messico: 600 TWh all’anno contro 550. Certo, concorrenti di OpenAi come la cinese DeepSeek hanno rimescolato le carte lanciando IA generative che a parità di prestazioni funzionano con meno risorse di calcolo. Ma lo stesso non può dirsi per il loro addestramento.

Tutto questo sta rendendo il supercalcolo una risorsa scarsa. I centri di calcolo sono diventati centri di potere. Un potere che a livello globale è in mano a poche big tech private con dimensioni sovranazionali: Google, Amazon e Microsoft. Gli stessi privati che hanno investito centinaia di miliardi per acquistare Gpu – un singolo chip Nvidia H200 oggi può costare fino a 40mila dollari – e trasformare i data center da infrastrutture per servizi cloud e storage di dati a centri dove addestrare e far lavorare intelligenze artificiali, con l’unico scopo di generare profitti.

Ma non tutto è perduto. L’Unione Europea – in ritardo sullo sviluppo dei prodotti, ma più attenta al bene comune – è oggi il Continente con la più grande infrastruttura di supercalcolo pubblica al mondo. Intorno a questa infrastruttura sono nate le prime AI Factory – tra cui quella italiana di Bologna, finanziata con 430 milioni di euro – e sono già allo studio cinque AI Gigafactory. L’obiettivo è mettere a disposizione di industrie, ma anche Pmi e Pubbliche amministrazioni, risorse di calcolo e competenze per disegnare una via europea all’intelligenza artificiale.

Come certificato dalla Top500, la classifica dei supercomputer più potenti al mondo, oggi la macchina con più capacità di calcolo è americana. Si chiama El Capitan e può eseguire 1,7 quintilioni di operazioni al secondo. Per sviluppare la stessa potenza di calcolo, un essere umano dovrebbe eseguire un’operazione al secondo per 87 miliardi di anni. Grazie a 18 supercomputer presenti in classifica, il nostro paese si posiziona al quarto posto dopo Stati Uniti (molto lontani) e Giappone e Germania (molto vicini). Recentemente l’Europa ha registrato anche l’accensione del supercomputer tedesco Jupiter Booster, il primo sistema di calcolo di classe exascale europeo.

Se le infrastrutture di calcolo non mancano, la possibilità che le imprese italiane ed europee inizino a usarle in modo massiccio, così come previsto a livello globale dagli analisti di Gartner, non è un fatto scontato. Da una ricerca commissionata da IT4LIA – l’AI Factory italiana – e condotta tra ottobre e novembre 2025 su un campione di oltre 200 organizzazioni tra Pmi, grandi imprese, startup, università, centri di ricerca e pubbliche amministrazioni, emerge che il 65% degli intervistati segnala come principale ostacolo all’adozione dell’IA la mancanza di competenze. Seguono budget limitati e costi elevati (50%), bisogno di supporto nella definizione dei progetti (48%), difficoltà nell’identificazione dei casi d’uso (45%), problemi legati alla gestione e qualità dei dati (38%), incertezze su AI Act, Gdpr e compliance normativa (33%). L’attenzione per l’intelligenza artificiale è alta, ma la capacità di implementare i progetti limitata. Nel complesso, un’organizzazione su due rischia di rimanere esclusa da sperimentazioni avanzate di intelligenza artificiale non per mancanza di interesse, ma per difficoltà ad accedere a competenze, infrastrutture e supporto specializzato.

Riproduzione riservata ©
Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti