La distillazione è il metodo che apre le porte a una nuova generazione di modelli AI
Fare di più, con meno: le big tech e alcune startup stanno cominciando a prendere spunto da Deepseek per una nuova era di modelli di intelligenza artificiale, che potranno essere più economici dei precedenti.
4' di lettura
4' di lettura
Fare di più, con meno: le big tech e alcune startup stanno cominciando a prendere spunto da Deepseek per una nuova era di modelli di intelligenza artificiale, che potranno essere più economici dei precedenti.
La tecnica chiave che ora può fare la differenza si chiama “distillazione”. Ha attirato l’attenzione proprio dopo che la cinese DeepSeek l’ha utilizzata per creare modelli di intelligenza artificiale potenti ed efficienti basati su sistemi open source creati dai concorrenti Meta e Alibaba. La svolta ha scosso la fiducia nella leadership dell’intelligenza artificiale della Silicon Valley e ha portato anche a un tracollo, di breve periodo, nel valore dalle azioni delle grandi aziende tecnologiche statunitensi.
Le big tech si sono affrettate a evidenziare che nonostante Deepseek gli investimenti in AI cresceranno ancora nel 2025. La maggiore efficienza ottenibile, con la distillazione (e altre tecniche) servirà infatti da stimolo per la nascita di altri modelli specializzati, più potenti, e una loro più ampia adozione nell’economia.
Cos’è la distillazione e come funziona
La “distillazione della conoscenza” è un processo di trasferimento delle conoscenze da un modello AI “insegnante” (teacher) di grandi dimensioni a un modello “studente” (student) più piccolo, preservandone le prestazioni. Concettualizzata da Geoffrey Hinton nel 2015, trae spunto da un lavoro pionieristico del 2006 su reti neurali.
L’idea centrale è che il modello studente non si limita a imitare le risposte corrette, ma apprende dal teacher la logica di funzionamento generale con cui fornirle agli utenti. Ovvero apprende le relazioni probabilistiche che ci sono tra le classi semantiche alla base dei dati di training.





