Dario Amodei

L’etica come strategia, la lezione industriale di Anthropic

L'atto di Anthropic rafforza la sua posizione nel mercato dell'AI responsabile. Ecco come e perché

di Stefano Epifani

Parigi,   8a edizione di Viva Technology. Dario Amodei, cofondatore e CEO di Anthropic. IPP/imagostock

3' di lettura

English Version

3' di lettura

English Version

Con Anthropic che si oppone alle richieste di Donald Trump di allentare i limiti sull’uso militare dei suoi modelli, è difficile dar torto a François de La Rochefoucauld quando scrive che “il più delle volte, le nostre virtù non sono che vizi mascherati”. Secondo i più, quella di Dario Amodei è stata una prova di coraggio etico. Ma, letta con meno entusiasmo apologetico e un po’ più di realismo, si tratta di una mossa industriale lungimirante, rispetto alla quale la virtù proclamata è parte integrante della strategia.

Del resto, per Amodei non è certo la prima volta. Negli ultimi anni Anthropic ha costruito gran parte della propria narrativa pubblica evocando i rischi apocalittici dell’intelligenza artificiale: dalle metafore sul livello di rischio dell’IA prese dal lessico delle pandemie fino a scenari in cui i modelli sfuggono al controllo umano. Un registro comunicativo efficace: prima si definisce il pericolo globale, poi si rivendica il ruolo di chi può evitarlo. E così in queste ore Amodei viene raccontato come il manager che ha avuto il coraggio di dire “no” al potere politico. L’eroe che rifiuta di piegarsi alle richieste dell’Amministrazione americana e difende i principi dell’intelligenza artificiale responsabile. Una lettura suggestiva, certo. Ma incompleta. Perché Amodei non è un benefattore romantico della tecnologia. È uno degli imprenditori più lucidi dell’ecosistema dell’intelligenza artificiale. E per questo la sua scelta non deve essere letta soltanto come un gesto etico. È anche, e forse soprattutto, una mossa strategica.

Loading...

Il primo effetto è il rafforzamento del brand

Anthropic ha costruito la propria identità attorno alla sicurezza dei modelli e alla responsabilità nell’uso dell’AI. In un mercato in cui quasi tutti promettono potenza crescente, posizionarsi come l’azienda che mette dei limiti diventa una leva competitiva potente.

Il secondo elemento riguarda la differenziazione competitiva. Nel mercato dei modelli generativi la competizione non si gioca soltanto sulle performance tecniche, ma anche sul posizionamento politico-industriale delle piattaforme. La scelta di Anthropic consente di marcare una distanza rispetto ai concorrenti, percepiti come più disponibili a collaborazioni militari o governative.

C’è poi il posizionamento regolatorio

Mentre governi e istituzioni stanno definendo le regole dell’intelligenza artificiale, presentarsi come l’attore che ha tracciato limiti chiari accredita inevitabilmente l’azienda ai tavoli normativi, soprattutto in Europa dove la credibilità sulla governance tecnologica è ormai decisiva.

Il quarto effetto riguarda il mercato enterprise ad alta compliance. Finanza, sanità, assicurazioni o pubblica amministrazione non acquistano soltanto tecnologia: comprano affidabilità e riduzione del rischio. In questo contesto un’azienda che costruisce la propria reputazione sulla sicurezza dell’AI diventa un partner naturale.

Infine, c’è un quinto fattore: talenti e capitali

Nel settore dell’AI la competizione per attrarre ricercatori e investitori è durissima. Una narrativa fondata sulla responsabilità aumenta l’attrattività verso chi vuole lavorare su tecnologie potenti ma governate.

A prima vista questa scelta ha un costo. Il rifiuto di modificare le condizioni richieste dal Pentagono ha comportato la perdita di contratti militari per circa 200 milioni di dollari. Ma Anthropic è oggi valutata tra i 350 e i 380 miliardi di dollari, e punta a ricavi annuali superiori ai 20 miliardi nei prossimi anni. 200 milioni di dollari sono lo 0,05% della valutazione dell’azienda. La vera domanda interessante è quindi un’altra: quanto vale il posizionamento che questa rinuncia produce?

I primi segnali sono già visibili

Dopo lo scontro con il governo statunitense, l’assistente Claude di Anthropic è salito ai vertici delle classifiche di download negli Stati Uniti, riducendo temporaneamente il vantaggio di ChatGPT. È troppo presto per capire se questi segnali produrranno cambiamenti strutturali, ma il messaggio è chiaro: nel capitalismo delle piattaforme la reputazione e la narrativa etica possono avere effetti economici immediati.

Il punto, allora, non è se Amodei abbia fatto la cosa giusta. Il punto è quanto questa scelta, presentata come morale, non sia in realtà una delle mosse industriali più lungimiranti nella competizione sull’intelligenza artificiale.

E, incidentalmente, quali siano i rischi insiti nel trasformare scelte economiche in atti morali: soprattutto per chi ha costruito proprio sulla morale una parte rilevante del proprio valore di mercato. D’altro canto, come aveva intuito La Rochefoucauld, tra virtù proclamate e interessi reali il confine è spesso molto più sottile di quanto la retorica pubblica lasci intendere.

Stefano Epifani è presidente del Digital Transformation Institute.

Riproduzione riservata ©
Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti