AI nella guerra in Iran, Anthropic fa causa al Pentagono
Dopo i dissidi sull’utilizzo di Claude nella guerra scoppiata in Iran, la vicenda finisce in tribunale
3' di lettura
3' di lettura
Non poteva che finire così. Con una causa legale. La vicenda fra Anthropic e il Pentagono che ha riempito le cronache dei giorni scorsi dopo la decisione dell’azienda californiana di interrompere un contratto in essere per ragioni etiche (l’utilizzo della sua AI nella guerra in Iran), sarà oggetto di contesa giuridica. L’azienda tecnologica ha avviato un’azione legale contro il Dipartimento della Difesa degli Stati Uniti (che Donald Trump ha ribattezzato Department of War) per bloccare una decisione che la inserisce in una lista di rischio per la sicurezza nazionale nella catena di approvvigionamento. La causa è stata depositata presso un tribunale federale della California e chiede a un giudice di annullare la designazione e impedire alle agenzie federali di applicarla.
Il Pentagono aveva annunciato la misura giovedì scorso, sostenendo che la società rappresentasse un rischio nella supply chain tecnologica. Una specie di vendetta, dopo il dietrofront guidato dal ceo, Dario Amodei.
Va ricordato che, secondo diverse fonti, alcuni strumenti di Anthropic sarebbero stati utilizzati in operazioni militari in Iran, anche dopo che l’azienda aveva deciso di interrompere la sua collaborazione col Pentagono.
Nel ricorso depositato in tribunale, la società con sede a Market Street (San Francisco) sostiene che la decisione del Dipartimento della Difesa sia illegittima e violi i diritti costituzionali alla libertà di espressione e al giusto processo. L’azienda afferma che il governo non può utilizzare il proprio potere per punire una società per le sue posizioni pubbliche.
Perché in effetti, quella contro Anthropic, sembra proprio una punizione. Una punizione firmata dal segretario alla Difesa, Pete Hegseth, che ha reagito in modo feroce alla scelta di Amodei di rimuovere alcune restrizioni ai modelli di AI dati in uso al Pentagono. In particolare, Antropic ha voluto porre dei limiti sull’impiego dei suoi sistemi per lo sviluppo di armi completamente autonome e per programmi di sorveglianza domestica negli Stati Uniti. O almeno questa è stata la versione ufficiale arrivata da Market Street.


