Intelligenza artificiale

Anthropic accusa DeepSeek, Moonshot e MiniMax di distillazione non autorizzata del modello Claude

Anthropic questa settimana ha affermato che concorrenti cinesi stavano rubando la sua tecnologia AI lanciando cosiddetti attacchi di distillazione sui suoi modelli.

di Riccardo Saporiti

Claude 3, le mappe elettorali e l’analisi dei dati

2' di lettura

English Version

2' di lettura

English Version

L’accusa è quella di distillazione, ma i superalcolici non c’entrano. A muoverla è Anthropic, l’azienda americana che ha sviluppato il modello di intelligenza artificiale Claude. E a finire nel mirino sono tre concorrenti cinesi, DeepSeek, Moonshot e MiniMax, che avrebbero utilizzato i loro LLM per creare 24mila account e intraprendere oltre 16 milioni di conversazioni con l’AI statunitense.

L’obiettivo appunto quello di distillare conoscenza, una sorta di allenamento per cui un modello conversa con uno più potente per imparare a generare risposte sempre migliori. Si tratta, spiegano da Anthropic, di una normale pratica nel settore, che però di solito viene svolta internamente: si distilla un proprio modello per crearne una versione più piccola, ed economica, da mettere sul mercato. Il problema sorge appunto quando l’allenatore, ovvero il LLM interrogato, è quello di un’altra azienda.

Loading...

Gli sviluppatori di Claude, in un post pubblicato sul blog aziendale, hanno reso noto di aver riscontrato oltre 150mila interazioni tra il proprio modello e quello di DeepSeek. Conversazioni che avrebbero cercato di far comprendere a quest’ultimo le capacità di ragionamento di Claude, chiedendogli di articolarlo e di esplicitarlo passo per passo. Ma ci sono state anche richieste di fornire delle risposte alternative, capaci di superare le maglie della censura, su tematiche politicamente sensibili come i dissidenti, i leader di partito, l’autoritarismo.

Ai a due velocità nel mondo, cosa dice l'ultimo report di Microsoft

Sono invece più di 3,4 milioni le conversazioni orchestrare da Moonshot AI, indirizzate questa volta a comprendere l’uso degli agenti, le capacità di coding e di analisi dei dati e la computer vision. La maggior parte delle sessioni di allenamento, oltre 13 milioni, hanno infine riguardato MiniMax. Anche in questo caso, l’interazione si è concentrata sullo sviluppo degli agenti.

La questione, sottolineano i creatori di Claude, non riguarda solo il fatto che si usino modelli altrui per addestrare i propri. I modelli distillati in questo modo, si legge, «mancano delle necessarie misure di sicurezza». Che significa? «Anthropic e la altre aziende americane costruiscono dei sistemi che impediscono di usare l’intelligenza artificiale, ad esempio, per sviluppare armi biologiche o per gestire attacchi cyber». Divieti che però si perdono con la distillazione. In gioco, in altre parole, c’è un tema di sicurezza nazionale.

Per questo, oltre ad annunciare lo sviluppo di contromisure tecnologiche che riducano l’efficacia dei processi di distillazione e alla condivisione di intelligence con le altre Big Tech americane, Anthropic fa un appello alla politica per dare una risposta coordinata a questo tipo di attacchi. Un appello che arriva negli stessi giorni in cui l’azienda è ai ferri corti con il Pentagono per questioni riguardanti i limiti da porre all’utilizzo dell’intelligenza artificiale nel settore della difesa.

Riproduzione riservata ©
Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti