Anthropic accusa DeepSeek, Moonshot e MiniMax di distillazione non autorizzata del modello Claude
Anthropic questa settimana ha affermato che concorrenti cinesi stavano rubando la sua tecnologia AI lanciando cosiddetti attacchi di distillazione sui suoi modelli.
2' di lettura
2' di lettura
L’accusa è quella di distillazione, ma i superalcolici non c’entrano. A muoverla è Anthropic, l’azienda americana che ha sviluppato il modello di intelligenza artificiale Claude. E a finire nel mirino sono tre concorrenti cinesi, DeepSeek, Moonshot e MiniMax, che avrebbero utilizzato i loro LLM per creare 24mila account e intraprendere oltre 16 milioni di conversazioni con l’AI statunitense.
L’obiettivo appunto quello di distillare conoscenza, una sorta di allenamento per cui un modello conversa con uno più potente per imparare a generare risposte sempre migliori. Si tratta, spiegano da Anthropic, di una normale pratica nel settore, che però di solito viene svolta internamente: si distilla un proprio modello per crearne una versione più piccola, ed economica, da mettere sul mercato. Il problema sorge appunto quando l’allenatore, ovvero il LLM interrogato, è quello di un’altra azienda.
Gli sviluppatori di Claude, in un post pubblicato sul blog aziendale, hanno reso noto di aver riscontrato oltre 150mila interazioni tra il proprio modello e quello di DeepSeek. Conversazioni che avrebbero cercato di far comprendere a quest’ultimo le capacità di ragionamento di Claude, chiedendogli di articolarlo e di esplicitarlo passo per passo. Ma ci sono state anche richieste di fornire delle risposte alternative, capaci di superare le maglie della censura, su tematiche politicamente sensibili come i dissidenti, i leader di partito, l’autoritarismo.
Sono invece più di 3,4 milioni le conversazioni orchestrare da Moonshot AI, indirizzate questa volta a comprendere l’uso degli agenti, le capacità di coding e di analisi dei dati e la computer vision. La maggior parte delle sessioni di allenamento, oltre 13 milioni, hanno infine riguardato MiniMax. Anche in questo caso, l’interazione si è concentrata sullo sviluppo degli agenti.
La questione, sottolineano i creatori di Claude, non riguarda solo il fatto che si usino modelli altrui per addestrare i propri. I modelli distillati in questo modo, si legge, «mancano delle necessarie misure di sicurezza». Che significa? «Anthropic e la altre aziende americane costruiscono dei sistemi che impediscono di usare l’intelligenza artificiale, ad esempio, per sviluppare armi biologiche o per gestire attacchi cyber». Divieti che però si perdono con la distillazione. In gioco, in altre parole, c’è un tema di sicurezza nazionale.




