Ai

Intelligenza artificiale, la responsabilità va attribuita ai produttori

Garantire trasparenza e fiducia a monte: sviluppatori di servizi e Pmi non possono gestire i rischi

di Fosca Giannotti, Dino Pedreschi e Luca De Biase

(sdecoret - stock.adobe.com)

3' di lettura

3' di lettura

Se le regole che governano i mercati sono ben congegnate non frenano ma favoriscono l’innovazione. Anche perché servono a coordinare l’azione di diversi operatori in filiere e ecosistemi complessi a vantaggio, almeno in teoria, di un bene comune. Il caso delle intelligenze artificiali generative e dei grandi modelli linguistici, come ChatGpt, è particolarmente istruttivo. Una discussione informata è urgente, dato che proprio in questi giorni il “trilogo” tra Consiglio, Parlamento e Commissione europea decide il destino dell’Ai Act, una proposta di regolamentazione sistemica per il mercato dell’Ai.

E sono oltre 300 gli scienziati e gli esperti italiani che hanno voluto contribuire con una lettera aperta a chiarire la situazione e proporre al governo la massima attenzione per questa materia.

Loading...

I modelli linguistici generativi come Gpt-4, di gigantesca complessità, sono ottenuti per addestramento su enormi risorse di dati da varie fonti (pagine web, libri, social media e altro). Hanno dimostrato prestazioni sorprendenti in una varietà di compiti linguistici. ChatGpt ha introdotto l’uso di tali modelli al grande pubblico globale. Sistemi come Stable Diffusion e MidJourney hanno rivoluzionato la creazione di immagini a partire da descrizioni testuali.

Tali modelli generativi pre-addestrati generalisti possono essere utilizzati dagli sviluppatori di una miriade di applicazioni specializzate in domini diversi, con effetti dirompenti sulla società e sull’economia: educazione, salute, scienza, tecnologia, industria, pubblica amministrazione, e così via, alimentando un ecosistema e una catena del valore innovativi.

D’altra parte, questi modelli generativi sono frutto di una tecnologia recente e ancora parzialmente immatura e mostrano evidenti lacune di affidabilità e sicurezza. Fra queste, la mancanza di trasparenza sui dati di addestramento e la loro provenienza, la presenza di bias e di errori imprevedibili (allucinazioni), la facilità di uso per scopi manipolativi (produzione di disinformazione), la difficoltà di interpretare o spiegare le risposte che producono e gli errori che compiono. Gli stessi produttori hanno espresso le loro preoccupazioni in materia.

In assenza di regole certe per i modelli generativi, per lo più prodotti da grandi aziende extraeuropee, gli sviluppatori di applicazioni, spesso europei e italiani, si troverebbero in grandi difficoltà. Se l’Ai Act non dovesse prevedere le responsabilità dei produttori dei modelli fondamentali, o se non dovesse essere approvato del tutto, le responsabilità di qualsiasi problema ricadrebbero su chi scrive le applicazioni, mentre i produttori dei modelli fondamentali sarebbero al riparo da ogni conseguenza.

Insomma: la regolamentazione applicata ai modelli generativi proteggerebbe l’innovazione europea e dell’ecosistema emergente dell’Ai garantendo robustezza, trasparenza e affidabilità. Regole a monte garantiscono che i pochi grandi sviluppatori forniscano i meccanismi di trasparenza e fiducia per i numerosi ulteriori attori a valle. Altrimenti, gli utenti finali saranno esposti a rischi che gli sviluppatori dei servizi a valle, e le Pmi in particolare, non possono gestire tecnicamente.

Per questo, oltre 300 scienziati che rappresentano una importante parte della comunità che si occupa di intelligenza artificiale in Italia, con l’appoggio di autorità scientifiche internazionali come Stuart Russell e Yoshua Bengio, sostengono la necessità di regole sui grandi modelli generativi, i “foundation model”, nell’ambito della Regolamentazione Europea sull’Intelligenza Artificiale, l’Ai Act, in corso di negoziazione finale. E fanno appello al governo italiano perché continui ad adoperarsi per un testo definitivo dell’Ai Act che includa regole chiare per i modelli generativi, rinforzando il ruolo dell’Europa di avanguardia globale della regolamentazione dell’intelligenza artificiale, consentendo di coglierne le opportunità con le migliori salvaguardie per la sicurezza.

Riproduzione riservata ©
Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti