AI Act, ecco il testo: così l’Europa regola l’intelligenza artificiale generativa
Ora è possibile quindi trarre qualche prima conclusione sensata sull’impatto di quello che il primo regolamento mondiale sull’intelligenza artificiale.
di Alessandro Longo
4' di lettura
4' di lettura
C’è un testo finale per l’AI Act e ora è possibile trarre qualche prima conclusione sensata sull’impatto di quello che è il primo regolamento mondiale sull’intelligenza artificiale.
In particolare sul tema bollente dell’intelligenza artificiale generativa, modelli e prodotti che secondo molti esperti possono cambiare rapidamente il nostro lavoro e la produttività (personale o aziendale).
AI Act, il testo
Sì, è vero: il regolamento sarà approvato definitivamente a marzo o aprile, con il voto al Parlamento Ue e diventerà legge a maggio, con la pubblicazione in Gazzetta Ufficiale Ue. Tuttavia, il testo non dovrebbe più cambiare, rispetto a quello approvato venerdì scorso da parte del Consiglio Ue. Lo scoglio da superare era questo passaggio. Adesso i legislatori europei concordano che il Parlamento lo approverà senza modifiche. Ricordiamo poi che ci vorranno due anni, dopo l’uscita in Gazzetta, perché la legge diventi esecutiva del tutto.
Come l’Europa regola l’IA generativa in generale
Si può comunque già dire, quindi, che alla fine è prevalsa la linea di regolamentare i modelli di IA generativa, oltre ai prodotto o soluzioni finali. Insomma l’Europa – come pure gli Usa hanno cominciato a fare anche in modo molto meno ampio – ha stabilito che l’IA generativa è un’eccezione. La considera una tecnologia “general purpose”, a finalità generale, a differenza degli altri tipi di intelligenza artificiale o tecnologie. Ossia può fare tante cose, anche imprevedibili in partenza. Per questo motivo, l’Europa ha valutato corretto regolare la tecnologia in sé – i modelli – e non solo i prodotti finali. Alcuni Paesi, Germania e Francia in testa, si opponevano a questa visione, temendo di danneggiare la loro nascente industria di modelli di IA generativi; poi però hanno convenuto che l’attuale testo segna il giusto compromesso tra tutela contro i rischi e sostegno all’innovazione. L’Europa comunque conserva in tutto il regolamento un approccio “orientato al rischio”, ossia fissa il principio secondo cui più alto è il rischio possibile, più stretta è la regolamentazione. Una tecnologia “general purpose” è di per sé più rischiosa – e quindi va regolamentata alla radice; tuttavia, anche qui si applica una scala: l’Europa fa differenza tra modelli general purpose a “rischio sistemico” (ossia elevato) e tutti gli altri.
IA generativa ad alto rischio
Sono a rischio sistemico i modelli di IA generativa che hanno un impatto importante sulle vite dei cittadini. Lo sono in automatico i modelli più avanzati, individuati da una quantità cumulativa di calcolo utilizzata per l’addestramento superiore a 10^25 flop (operazioni in virgola mobile). La Commissione europea può adottare altri criteri, come numero di parametri, qualità e grandezza del dataset usato, modalità dell’input o output dati o numero di utenti business di quel modello. La Commissione dovrà comunque aggiornare questi criteri in base all’evoluzione tecnologica, periodicamente.
Interessante il confronto con l’ordine esecutivo di Joe Biden, che dall’anno scorso obbliga a fornire al governo Usa dettagli su “qualsiasi modello che sia stato addestrato utilizzando una quantità di potenza di calcolo superiore a 10^26 operazioni in virgola mobile; o che utilizzando principalmente dati di sequenze biologiche usi una quantità di potenza di calcolo superiore a 10^23 operazioni in virgola mobile o in virgola mobile”. Se i dati sono di natura “biologica” si abbassa la soglia e quindi la regola diventa più stringente.



-kBFF--1020x533@IlSole24Ore-Web.jpeg?r=650x341)

