L’IA, le fragilità del sistema e la finanza strutturata: governare il cambiamento con misura
di Enrica Landolfi*
4' di lettura
4' di lettura
Negli ultimi due anni l’intelligenza artificiale è passata da essere una promessa tecnologica a uno strumento operativo nei desk di banche, fondi e società di servizi finanziari. Nella finanza strutturata – per i non addetti ai lavori, mi riferisco al mondo di cartolarizzazioni, CLO, ABS, note strutturate e derivati di copertura – l’impatto è già visibile, ponendo a tutti coloro che operano in questo settore alcune domande: che cosa possiamo attenderci nei prossimi anni? E che cosa dovremmo imparare a fare per non farci trovare impreparati di fronte ai rischi che questa innovazione in fortissima accelerazione potrebbe comportare?
Attualmente l’uso più maturo nella finanza strutturata della Generative AI riguarda la gestione documentale e l’analisi dei molteplici contratti di una cartolarizzazione. Modelli linguistici integrati con sistemi di ricerca interna consentono infatti d’interrogare migliaia di pagine in linguaggio naturale, estrarre clausole chiave e generare sintesi per comitati rischi o investitori. Ma anche attività cruciali come la selezione del portafoglio, il monitoraggio delle operazioni e le benchmark analisys si avvalgono utilmente di questa nuova tecnologia. Nel mercato dei derivati, l’ISDA, per esempio, ha pubblicato analisi su come utilizzare la GenAI nei processi documentali, sottolineandone il potenziale. Al medesimo tempo, però, ha posto in luce la necessità di controlli sui dati e sulla loro accuratezza. Nei prossimi anni – non molti – questa componente diventerà infatti una infrastruttura: non più progetto pilota, ma parte ordinaria del ciclo di vita di un’operazione strutturata, dalla origination al reporting.
Ancora maggiore di quello della Generative AI sarà l’impatto della Agentic AI, ovverosia dei sistemi capaci non soltanto di rispondere a domande in linguaggio naturale, ma in grado di pianificare e innescare in piena autonomia sequenze di vere e proprie azioni lungo tutto il ciclo operativo di un’operazione finanziaria. Combinando Generative AI e Agentic AI, pertanto, ci possiamo attendere tre linee evolutive: la compressione dei tempi di strutturazione; una sorveglianza continua dei portafogli; l’integrazione tra dati, modelli, narrativa.
Un simile contributo in termini di efficienza è certamente benvenuto. Non possiamo tuttavia nasconderci che la sua implementazione potrebbe implicare alcune fragilità di sistema. L’errore automatizzato su larga scala, anzitutto. E il rischio più insidioso: l’errore “plausibile”, ossia un’interpretazione errata, ma verosimile di clausole o trigger contrattuali.
Questa consapevolezza sta portando a crescenti attenzioni regolamentari che, pur tra legittime controversie di merito, non potranno che aumentare man mano che la Generative AI verrà affiancata operativamente dall’Agentic. Il Financial Stability Board, per esempio, tra gli altri, ha evidenziato i rischi di un eccesso di concentrazione tecnologica, la dipendenza da pochi provider e l’esposizione a vulnerabilità sistemiche. In Europa, il quadro regolamentare via via si sta chiarendo: l’European Banking Authority ha ribadito l’approccio prudente previsto dall’AI Act; l’European Central Bank ne tiene monitorato l’uso; mentre l’European Securities and Markets Authority, per parte sua, ha ribadito come la responsabilità finale resti in capo all’intermediario anche qualora, grazie all’AI, il processo fosse automatizzato.








