Intervento

Le competenze necessarie per scalare l’AI: ruoli, metodi e cultura organizzativa

Competenze, governance e collaborazione sono fondamentali per trasformare l'AI in vantaggio competitivo

di Giovanni Pirola*

6' di lettura

English Version

6' di lettura

English Version

Nel processo di adozione di soluzioni basate su AI Generativa, il vero elemento distintivo non è tanto il modello (o LLM), ma la capacità di un’organizzazione di utilizzarlo in produzione in modo sicuro e scalabile. Ruoli e metodi sono chiari: l’ingegneria della piattaforma AI definisce l’infrastruttura adatta a servire carichi di lavoro in maniera flessibile, standard aperti per fornire libertà di scelta e leadership capace di governare il processo di trasformazione. La maturità di qualsiasi percorso di adozione tecnologica si misura dal ROI, dal tempo di messa in produzione di soluzioni e dalla politica di sicurezza, non dalla pura quantità di esperimenti effettuati. Un approccio strutturato, che passa dal proof-of-concept alla produzione, deve favorire la collaborazione e aiutare a rompere i silos, integrando le attività più puramente IT con le attività di sviluppo. L’approccio strutturato colma anche il divario di competenze con expertise tecnica e più propriamente funzionale, rendendo produttiva tutta la filiera di competenza atta ad introdurre l’AI Generativa nei processi aziendali. In questo breve articolo, ci riferiremo alla AI Generativa come più semplicemente AI, tuttavia molte delle considerazioni si applicano anche ai concetti di AI Predittiva.

Dalla sperimentazione alla produzione: ROI, infrastruttura e scalabilità

Secondo una recente indagine Red Hat, i leader delle aziende italiane si aspettano giustamente un chiaro ritorno dall’investimento dall’adozione dell’AI e identificano la “Mancanza di un chiaro valore aziendale o ROI” (31%) e l’“Infrastruttura insufficiente” (31%) come le principali barriere incontrate.

Loading...

Il ritorno sull’investimento è certamente una questione cruciale. Molte organizzazioni devono definire KPI specifici durante la fase sperimentale al fine di valutare se il caso d’uso in esame offra realmente tale ritorno.

Nel caso delle barriere infrastrutturali, un problema chiave è la disponibilità di risorse hardware specializzate e di calcolo (ad esempio, GPU) per l’implementazione dei progetti AI. Per dimostrare il ROI delle iniziative sperimentali selezionate, senza dover affrontare i costi ed i tempi di approvvigionamento di hardware dedicato, le organizzazioni cercano di superare questo ostacolo durante la fase sperimentale affidandosi a infrastrutture nel Public Cloud, che consentono un approvvigionamento veloce ed un ciclo di feedback rapido con costi iniziali moderati. Tuttavia, quando si passa alla fase di produzione ci sono considerazioni sulla riservatezza dei dati, la sicurezza, la scalabilità e la predicibilità dei costi, che tipicamente richiedono un ambiente on-premise o cloud privato.

Secondo Red Hat, un approccio open hybrid cloud integrando l’infrastruttura on-premise esistente con le risorse cloud pubbliche, risponde a tutte le considerazioni elencate in precedenza, allineandosi anche con le priorità a lungo termine delle aziende italiane come “Riallineamento della strategia cloud per l’AI” (56%) e “Ottimizzazione dei costi” (55%).

In particolare, l’ottimizzazione dell’inferenza diventa cruciale: l’efficienza, l’affidabilità e le prestazioni di una soluzione AI generativa dipendono in larga misura dal server di inferenza. Previsioni come quelle di Gartner indicano che entro il 2028 oltre l’80% delle risorse di calcolo accelerate, oggi usate per l’addestramento, sarà destinato all’inferenza. Per questo, soluzioni che garantiscono capacità di inferenza efficienti e stabili, come vLLM e piattaforme basate su Kubernetes per orchestrare i carichi di lavoro su hardware distribuito, sono fondamentali per trasformare gli esperimenti di AI in valore tangibile.

Un approccio ibrido, basato su server ottimizzati, aiuta ad uscire dal circolo vizioso degli infiniti proof-of-concept che non si traducono mai in soluzioni di produzione.

Il dilemma “Build or Buy”: competenze e silos organizzativi

Per affrontare i molteplici casi d’uso che l’AI può aiutare ad implementare, molte aziende hanno intrapreso iniziative parallele, in diversi dipartimenti. Sebbene questa possa sembrare la scelta più efficace, notiamo che spesso si crea una duplicazione degli sforzi non utilizzando in modo ottimale il tempo di un pool di talenti attualmente poco disponibile sul mercato; questo approccio rischia di generare ulteriori silos interni, identificati come una barriera all’adozione di cloud e AI dal 41% delle aziende italiane intervistate. Questa è principalmente di una sfida culturale e organizzativa.

Pensiamo che si possa mitigare il problema dei silos adottando un approccio alla progettazione di soluzioni che combini l’esperienza IT/operativa con le competenze di dominio, attraverso attività quali:

• Analisi personalizzata: comprensione dei requisiti svolta congiuntamente tra gli stakeholder della soluzione.

• Selezione delle iniziative basata sul valore atteso della iniziativa stessa

• Roadmap condivisa: pianificazione chiara per raggiungere obiettivi prefissati dalla direzione.

• Fornitura di supporto completo: assistenza durante la progettazione, l’implementazione e l’adozione, specializzata sulle differenti figure professionali, che necessitano di contributi di consulenza o formazione differenti.

• Formazione diffusa ritagliata sulle necessità specifiche delle varie figure professionali

Una visione di insieme che aiuti a superare le barriere organizzative può portare ad una maggiore probabilità di successo del progetto.

Nel contesto di progetti di AI, un tema chiave è quello delle competenze: il 40% degli intervistati concorda sulla presenza di un significativo divario di competenze nell’AI Generativa, e per il 49% il principale divario percepito è nella categoria “competenze umane e personali”, piuttosto che in quelle puramente tecniche. Abbiamo bisogno di professionisti in grado di implementare, gestire, rendere sicura e scalabile l’infrastruttura di AI negli ambienti complessi dove è più necessaria, ma abbiamo anche bisogno di sviluppare le skill di comunicazione e collaborazione che permettano a gruppi diversi di interagire proficuamente.

Abbiamo bisogno di ingegneri di piattaforma AI che comprendano:

• La progettazione di piattaforme pronte per i carichi di lavoro AI: creazione di sistemi distribuiti, resilienti e scalabili per eseguire carichi di lavoro diversi;

• La necessità di adottare Standard aperti: garanzia di flessibilità e libertà scelta tra diversi fornitori;

• L’adozione di una politica di sicurezza su larga scala (come identificato nelle molte iniziative in ambito Sovereign Cloud): protezione dell’infrastruttura di AI e dei processi di accesso e mantenimento dei dati in ambienti complessi e multi-tenant.

Queste competenze rappresentano la linea di demarcazione tra le organizzazioni e persino le nazioni che hanno ambizioni nel campo dell’AI e quelle che hanno capacità reali in questo settore.

Shadow AI e leadership aperta: dal rischio all’innovazione governata

La sfida della Shadow AI, cioè l’uso di strumenti di AI non autorizzati da parte dei dipendenti, è osservata dal 93% delle organizzazioni intervistate da Red Hat in Italia. La Shadow AI introduce nuovi rischi e sottolinea ancora una volta la necessità di formazione interna e l’introduzione di guardrail (cioè di sistemi di controllo e verifica), supportati da piattaforme disponibili a tutti i team in azienda, governate e progettate pensando agli utenti.

Al tempo stesso, la “Shadow AI” può anche essere considerata un segnale positivo per i leader aziendali, poiché indica l’ambizione e il desiderio di innovare dei dipendenti.

La sfida, dunque, non è soffocare questa energia proveniente dal basso, ma canalizzarla in modo sicuro e produttivo. Superare queste barriere richiede il passaggio da una raccolta di strumenti frammentati a una strategia di piattaforma unificata. I leader IT e gli sviluppatori AI in Italia riconoscono già la strada da percorrere, poiché il 70% concorda sul fatto che la tecnologia open source sia importante per la loro strategia AI. Quindi, una piattaforma AI open source con supporto enterprise disponibile a tutti i dipendenti può offrire la coerenza e il controllo necessari per costruire, implementare e gestire l’AI Generativa su qualsiasi hardware e qualsiasi cloud provider.

Le organizzazioni necessitano di un ambiente governato dove i team possano accedere agli strumenti necessari per sperimentare e sviluppare soluzioni con fiducia. Invece di adottare sistemi eterogeni in silos dipartimentali (la principale barriera all’adozione dell’AI), l’uso di una piattaforma open source enterprise aiuta a capitalizzare e condividere la conoscenza ed evita di investire tempo “reinventando la ruota”. Questo approccio consente all’IT di abilitare l’innovazione, non di bloccarla, contribuendo a soddisfare una delle principali priorità AI per il 52% degli intervistati: trasparenza e apertura. L’open source fornisce questa trasparenza e aumenta la standardizzazione, aiutando le imprese a mantenere il controllo sulle decisioni relative all’approccio all’AI e alla gestione dei dati, indicato come priorità per il 51% degli intervistati

Dalle competenze all’impatto: rendere l’AI di livello produttivo

La pressione a modernizzare e generare valore attraverso la Generative AI e la trasformazione digitale è immensa, ma lo sono anche i rischi, partendo dalla dipendenza dal fornitore alla Shadow AI e al divario di competenze. È consigliabile un approccio che favorisca fin dall’inizio la collaborazione tra tutte le competenze necessarie alla realizzazione della soluzione, partendo dalla gestione dei dati per arrivare alla integrazione delle applicazioni ed alla gestione di una infrastruttura sicura e scalabile. Le organizzazioni che investono nell’ingegneria della piattaforma, negli standard aperti e nella leadership aperta trasformeranno l’adozione della Generative AI in un vantaggio duraturo.

*Director, Go To Market Services, Red Hat Italia

Riproduzione riservata ©
Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti