Intelligenza artificiale

AI nella guerra in Iran, Anthropic fa causa al Pentagono

Dopo i dissidi sull’utilizzo di Claude nella guerra scoppiata in Iran, la vicenda finisce in tribunale

di Biagio Simonetta

3' di lettura

English Version

3' di lettura

English Version

Non poteva che finire così. Con una causa legale. La vicenda fra Anthropic e il Pentagono che ha riempito le cronache dei giorni scorsi dopo la decisione dell’azienda californiana di interrompere un contratto in essere per ragioni etiche (l’utilizzo della sua AI nella guerra in Iran), sarà oggetto di contesa giuridica. L’azienda tecnologica ha avviato un’azione legale contro il Dipartimento della Difesa degli Stati Uniti (che Donald Trump ha ribattezzato Department of War) per bloccare una decisione che la inserisce in una lista di rischio per la sicurezza nazionale nella catena di approvvigionamento. La causa è stata depositata presso un tribunale federale della California e chiede a un giudice di annullare la designazione e impedire alle agenzie federali di applicarla.

Il Pentagono aveva annunciato la misura giovedì scorso, sostenendo che la società rappresentasse un rischio nella supply chain tecnologica. Una specie di vendetta, dopo il dietrofront guidato dal ceo, Dario Amodei.

Loading...

Va ricordato che, secondo diverse fonti, alcuni strumenti di Anthropic sarebbero stati utilizzati in operazioni militari in Iran, anche dopo che l’azienda aveva deciso di interrompere la sua collaborazione col Pentagono.

Nel ricorso depositato in tribunale, la società con sede a Market Street (San Francisco) sostiene che la decisione del Dipartimento della Difesa sia illegittima e violi i diritti costituzionali alla libertà di espressione e al giusto processo. L’azienda afferma che il governo non può utilizzare il proprio potere per punire una società per le sue posizioni pubbliche.

Perché in effetti, quella contro Anthropic, sembra proprio una punizione. Una punizione firmata dal segretario alla Difesa, Pete Hegseth, che ha reagito in modo feroce alla scelta di Amodei di rimuovere alcune restrizioni ai modelli di AI dati in uso al Pentagono. In particolare, Antropic ha voluto porre dei limiti sull’impiego dei suoi sistemi per lo sviluppo di armi completamente autonome e per programmi di sorveglianza domestica negli Stati Uniti. O almeno questa è stata la versione ufficiale arrivata da Market Street.

Decisione che ha trovato ampio dissenso al Pentagono e alla Casa Bianca, secondo i quali la definizione delle modalità di difesa nazionale spetta alla legge federale e non a una società privata. Il Dipartimento della Difesa ha sostenuto di dover mantenere piena flessibilità nell’utilizzo dell’intelligenza artificiale per «qualsiasi uso legale», aggiungendo che restrizioni come quelle introdotte da Anthropic potrebbero mettere a rischio vite americane.

La decisione rappresenta un rischio significativo per i rapporti tra Anthropic e il governo federale. Ne ha parlato Trump in persona, che tra l’altro ha ordinato alle agenzie federali di interrompere progressivamente la collaborazione con l’azienda entro sei mesi. E questo, chiaramente, ha avuto un impatto anche sugli investitori, che ora stanno cercando di non trovarsi in situazioni di disagio, considerato il fuoco incrociato. Giova ricordare che tra i finanziatori di Anthropic figurano Google, parte di Alphabet, e Amazon.

Il confronto tra il governo e la start up si è intensificato dopo mesi di trattative sulle politiche di utilizzo dell’intelligenza artificiale in ambito militare. Il CEO di Anthropic, Dario Amodei, aveva incontrato Hegseth poco prima della decisione di ricorrere in tribunale, nella speranza di raggiungere un accordo. E infatti molte agenzie avevano scritto di un riavvicinamento fra le due parti. Riavvicinamento che non c’è stato.

La società californiana sostiene che gli attuali modelli di intelligenza artificiale non siano sufficientemente affidabili per essere impiegati in sistemi d’arma completamente autonomi e che il loro utilizzo in quel contesto sarebbe pericoloso. Anthropic ha inoltre indicato come linea rossa la sorveglianza domestica dei cittadini americani.

Amodei ha dichiarato che la società contesterà la decisione in tribunale.

Va ricordato anche che negli ultimi dodici mesi il Dipartimento della Difesa ha firmato accordi fino a 200 milioni di dollari ciascuno con diversi player di intelligenza artificiale, tra cui Anthropic, OpenAI e Google. E che poco dopo la decisione di inserire Anthropic nella lista di rischio, OpenAI ha annunciato siglato un accordo proprio col Pentagono. Una mossa che non è piaciuta agli utenti, che in massa hanno disinstallato ChatGPT dai loro dispositivi. Il ceo, Sam Altman, ha dichiarato che l’azienda condivide con il Pentagono il principio della supervisione umana sui sistemi d’arma e l’opposizione alla sorveglianza di massa negli Stati Uniti. Ma sembra non aver sortito troppo effetto fra i critici. Oggi, almeno dal punto di vista del marketing, Anthropic ne esce vincente, mentre OpenAI - che (giova ricordarlo) è nata come start up senza scopo di lucro - ha perso terreno nella classifica di gradimento.

Riproduzione riservata ©
Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti