Piattaforme

Governare l’AI agentica in azienda: è italiana la startup dell’intelligenza basata su principi

L’obiettivo finale è quello di consentire alle aziende di continuare a usare i sistemi di AI già in esercizio, aggiungendo un livello di governance che sia interoperabile

di Gianni Rusconi

5' di lettura

English Version

5' di lettura

English Version

Partiamo dalla notizia: Principled Intelligence ha chiuso a fine anno (annunciandolo ufficialmente solo qualche giorno fa) un round pre-seed da 1,85 milioni di euro. L’operazione è stata guidata dal Polo Nazionale di Trasferimento Tecnologico per l’Intelligenza Artificiale e la Cybersecurity (realizzato da CDP Venture Capital in partnership con Scientifica Venture Capital) – e dal fondo di VC specializzato in investimenti in Artificial Intelligence BlackSheep, con la partecipazione di Eden Ventures.

Chi è e cosa fa la startup romana, fondata nel 2025, lo si può intuire dalla descrizione presente nella nota diffusa ai media: una società specializzata nello sviluppo di tecnologie per il controllo e la governance dell’intelligenza artificiale. Più precisamente, un’infrastruttura erogata in modalità Saas e pensata per permettere alle imprese di adottare in sicurezza, tecnologie di AI generativa, agenti e modelli LLM (Large Language Model) anche nei processi più critici e in contesti altamente regolamentati.

Loading...

Come nasce: i founder e la visione

La culla dove nasce Principled Intelligence è accademica, visto e considerato che i due fondatori, Simone Conia (che ricopre il ruolo di Ceo) ed Edoardo Barba (il Cto), hanno partorito l’idea della startup una volta concluso il percorso di ricerca in intelligenza artificiale e natural language processing condotto presso La Sapienza Università di Roma.

Dopo l’esperienza maturata negli Stati Uniti, in Apple, sui large language model per migliorare qualità, affidabilità e fattualità delle risposte dei sistemi conversazionali, Conia è tornato nel Belpaese per dare vita con il compagno di studi a Minerva LLM, la prima famiglia di modelli di grande formato addestrati da zero su dati italiani, già adottata su larga scala da università, aziende e sviluppatori (oltre 300mila i download fino a oggi). Quanto al nome, come ricordano i due co-founder al Sole24ore.com, la scelta è caduta su Principled Intelligence “per mettere in primo piano l’idea di un’AI che non sia solo intelligente, ma governata dagli stessi principi che guidano un’organizzazione e ne determinano il successo.

Questi principi includono valori etici e requisiti regolatori generali come l’AI Act, ma anche policy aziendali interne, documentazione operativa, cultura aziendale, codici di condotta e strategie commerciali”. La specificità della proposta dell’azienda (al momento attiva con un team di sei persone, cinque delle quali con in tasca un dottorato in intelligenza artificiale) si concretizza in una visione “multilingual-by-design”. Un principio, spiegano ancora Conia e Barba, è tale solo se viene rispettato in modo coerente, indipendentemente dalla lingua. Nella pratica, invece, “molti sistemi di AI mostrano comportamenti e livelli di precisione diversi a seconda della lingua utilizzata, con un impatto diretto sulla capacità delle aziende di applicare policy e linee guida in modo uniforme. Per questo noi vogliamo garantire che gli stessi principi valgano allo stesso modo nelle principali lingue europee”.

Cosa fa per le imprese e come funziona

Il punto di rottura messo nel mirino da Principled Intelligence nel percorso di adozione dell’AI in azienda è quello che molti analisti hanno già analizzato e derubricato alla voce “fallimento” dei proof of concept. L’applicazione dell’intelligenza artificiale in prodotti, servizi e processi è spesso messa a rischio dalla sua stessa imprevedibilità, e più nel dettaglio dall’elevato grado di autonomia dei modelli, i cui comportamenti non controllabili preventivamente possono avere conseguenze anche gravi sull’immagine e sulle finanze delle imprese.

La startup ha per l’appunto l’ambizione di rispondere alla sfida di governare il comportamento e controllare le decisioni dell’AI integrata nei sistemi di intelligenza artificiale già presenti in azienda in modo trasparente, semplice (la piattaforma è personalizzabile tramite linguaggio naturale e fornisce spiegazioni approfondite in caso di violazioni) e conforme alle policy di ogni singola organizzazione. Per farlo sta sviluppando un layer infrastrutturale che opera in cloud (su quello di Principled Intelligence o su cloud privati) e all’occorrenza anche on premise (quando i dati sono particolarmente sensibili e non possono uscire dal perimetro aziendale) e che consente alle imprese di definire i propri princìpi operativi, trasformarli in criteri verificabili, simulare interazioni realistiche e monitorare costantemente il comportamento dell’AI. “Parte di questa infrastruttura – conferma il Ceo - è già operativa ed è attualmente in uso da diverse aziende. La differenza rispetto a una piattaforma applicativa tradizionale è la seguente: il cliente non adotta un prodotto monolitico ma modulare; può decidere quali componenti utilizzare e come combinarli, scegliendo se adottare l’intero layer di governance oppure solo specifici moduli per affrontare singoli aspetti, come la valutazione del comportamento dei sistemi di AI o la verifica di determinati requisiti di compliance sull’input di una chatbot”.

La tecnologia e i progetti pilota

Il cuore tecnologico della piattaforma sono modelli Small Language Model (SLM) ingegnerizzati e istruiti a compiti di governance, compliance e guardrailing (i sistemi di guardrail garantiscono che gli strumenti di AI di un’organizzazione, e in particolare gli LLM, operino in conformità con le politiche e i valori dell’impresa), applicabili in tempo reale e predisposti a lavorare anche su comuni server aziendali. “Per quanto riguarda l’interoperabilità con i sistemi già in produzione – osservano i due founder - il nostro software è in grado di interagire con agenti AI simulando il comportamento di un operatore umano.

Non sono quindi necessari accessi speciali o connettori specificatamente progettati, e questo rende la nostra soluzione una delle più avanzate oggi disponibili sul mercato. Per il layer di trust e governance, così come per i singoli modelli, stiamo sviluppando connettori nativi per i principali provider di agenti: in un ambiente operativo come quello di Salesforce, per esempio, la nostra piattaforma non sostituisce gli agenti esistenti, ma si integra a monte e a valle delle loro azioni.

L’obiettivo finale è quello di consentire alle aziende di continuare a usare i sistemi di AI già in esercizio, aggiungendo un livello di governance che sia interoperabile, modulare e indipendente dal vendor tecnologico”. Un approccio che trova concretezza nelle prime applicazioni pilota della piattaforma, in progetti che coinvolgono assistenti virtuali attivi in contesti ad alto rischio come il mondo bancario e assicurativo (dove l’impatto monetario di un errore può essere rilevante) e in altri, vedi la pubblica amministrazione, dove il rischio è soprattutto reputazionale e istituzionale. “Stiamo anche lavorando – aggiunge in proposito Conia - su aspetti di guidance finanziaria, medica o legale, sulla prevenzione di perdite di opportunità commerciali dovute a menzioni di competitor o dei loro servizi e sul controllo di bias sociali o meccanismi assimilabili al social scoring, tutti comportamenti che non sempre configurano una violazione di sicurezza, ma che possono avere conseguenze significative in termini normativi, economici e di immagine”.

La filosofia open source per creare standard condivisi

Con gli 1,85 milioni di euro arrivati in cassa, il futuro prossimo di Principled Intelligence vedrà investimenti destinati a far crescere il team e ad accelerare lo sviluppo della soluzione. “Nei prossimi 24 mesi – confermano i due fondatori - lavoreremo su due direttrici complementari. Da un lato, un software di analisi del comportamento e dell’accuratezza dei sistemi di AI, perché non è possibile governare ciò che non si può misurare; dall’altro, un layer di governance basato su modelli linguistici proprietari, che consente di intervenire in modo mirato sulle criticità emerse in fase di valutazione, inizialmente per input e output testuali e in futuro anche per immagini, audio e video. L’approccio open source eletto a elemento centrale della filosofia aziendale troverà quindi ulteriore applicazione nel rilascio di modelli e benchmark aperti. “Vogliamo rendere verificabili e riproducibili le nostre pratiche di controllo dell’AI e contribuire alla definizione di standard condivisi – ha infatti concluso Conia -, perché crediamo che la fiducia nei sistemi di intelligenza artificiale si costruisce attraverso trasparenza, verificabilità e confronto pubblico”.

Riproduzione riservata ©
Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti