Prodotti

Italia, Europa e resto del mondo a caccia di chatbot nazionalisti

Non ci sono solo Stati Uniti e Cina: da Italia 9B a Mistral Ai ecco i modelli linguistici di grandi dimensioni open source che sono nati nel nostro continente.

di Antonino Caffo

4' di lettura

4' di lettura

Rubare il lavoro all’uomo, ridurre operazioni manuali in automatismi di qualche secondo, persino azzerare la creatività con un semplice prompt di testo. Tra le miriadi di conseguenze negative di cui l’intelligenza artificiale generativa si fa portatrice, molti ne dimenticano una: l’appiattimento linguistico. Chi usa da tempo strumenti come ChatGPT o Gemini non faticherà a riconoscere una porzione di testo creata con i loro schemi: elenchi puntati, frasi brevi e spesso ripetute. La traduzione da un idioma all’altro finisce per allineare ancora di più il contenuto ad adattamenti spesso privi di caratterizzazioni nazionali, impersonali e, in sintesi, poco interessanti. Ed è il motivo per cui molti paesi al mondo, così come enti e università, si sono mossi per creare i loro LLM, Large Language Model autoctoni, plasmati su misura per riprendere a tutti gli effetti gli usi e costumi di un popolo, una sorta di super-uomo consapevole dello spazio e del tempo che sta vivendo.

Non siamo stati i primi ma nemmeno gli ultimi. Da qualche giorno è disponibile “Italia”, il modello sviluppato da iGenius e “allenato” da Cineca su un dataset nostrano, ossia composto da parole italiane e addestrato su 9 miliardi di parametri e 50 mila token del vocabolario, con oltre 1.000 miliardi di singole parole da associare per il training. Poco o tanto? Per confronto, il vecchio Gpt-3 operava su 175 miliardi di parametri mentre Gpt-4 su circa 100 mila miliardi.

Loading...

Più che il dataset è la potenza di calcolo

È chiaro che non sia così importante avere una quantità smisurata di parametri quando la capacità di fare inferenza, ovvero trasformare i dati in sequenze logiche. Un processo che deve essere eseguito da una macchina, che è la base dell’algoritmo o di un cluster di algoritmi. Musk, prima di lanciare Grok su X ha pensato bene di comprarsi un bel po’ di GPU Nvidia mentre Microsoft, a fine 2023, ha presentato Azure Maia 100 e Cobalt 100, i primi due chip progettati per l’infrastruttura cloud potenziata dall’IA. Come dire: abbiamo costruito la monoposto, ci sono i piloti, però manca o c’è carenza di officine, il che realizzerebbe davvero il concetto di “sovranità” dell’intelligenza artificiale.

L’Italia è fatta

Rilasciato in modalità open source, Italia vuole essere uno strumento di evoluzione per la ricerca e le imprese di tutto il Paese. È scaricabile sul sito di iGenius e su altre piattaforme di sviluppo di prodotti IA, Italia è addestrato su un set di dati di testo e codice in italiano, proveniente da diverse fonti, tra cui Wikipedia, libri, articoli di giornale e codice sorgente.

Può essere utilizzato tramite un’interfaccia web o un’API. La prima è semplice da usare e non richiede alcuna conoscenza di programmazione. L’API è più complessa, ma offre maggiore flessibilità e controllo. Editoriale nazionale è il primo dei partner che ha voluto contribuire al training di Italia, aprendo il suo archivio storico di articoli, ma in futuro ci si aspetta che altri vogliano accodarsi.

I cugini hanno Mistral

Mistral, sviluppato dalla startup francese Mistral AI, è un modello linguistico di grandi dimensioni con caratteristiche interessanti, che lo rendono un punto di riferimento nel panorama europeo dell’intelligenza artificiale. A differenza di altri LLM proprietari, è open-weight, il che significa che il suo codice e i suoi parametri sono pubblicamente accessibili e modificabili. Questo permette a chiunque di ispezionarne il funzionamento, migliorarlo e adattarlo alle proprie esigenze, promuovendo la trasparenza e la collaborazione. Mistral vanta 7,2 miliardi di parametri, tra i modelli più potenti in Europa, per elaborare informazioni complesse, generare testi di alta qualità e svolgere compiti impegnativi con un’accuratezza notevole. Il CEO di Mistral IA, Arthur Mensch, ha trascorso quasi tre anni presso DeepMind, il laboratorio di intelligenza artificiale che Google ha acquisito nel 2014 per 650 milioni di dollari. I suoi due soci arrivano da Meta: Guillaume Lample e Timothée Lacroix, tra gli ideatori del modello linguistico LLaMA.

Dalla Cina agli Emirati

Dall’altra parte del mondo il Paese più attivo è la Cina. Pechino avrebbe approvato più di 40 LLM per uso pubblico mentre gli Emirati Arabi Uniti, ricchi e tecnologicamente avanzati, hanno creato Falcon, un modello dedicato alla lingua araba, con l’obiettivo di rafforzarne la presenza nel panorama digitale e supportare la crescita economica e culturale della regione. A maggio, l’Abu Dhabi Technology Innovation Institute ha pubblicato Falcon 2, che è multimodale, in grado di interagire e produrre sia testo che immagini e file audio.

La ricerca universitaria

E proprio in ambito universitario i progetti di LLM si fanno interessanti. Lavorare su un perimetro chiuso, delimitato, è lo scenario migliore dove applicare algoritmi di intelligenza artificiale generativa. Questo è l’obiettivo di Dante, un LLM sviluppato da Fabrizio Silvestri, professore dell’Università La Sapienza di Roma. È basato su un modello “transformers” di Google del 2017 e utilizza innovazioni recenti come la “quantizzazione” dei pesi per una versione più snella. Il modello è stato addestrato in italiano, facendo leva proprio sul transalpino Mistral per ridurre costi e tempi di messa in opera.

Riproduzione riservata ©
Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti