La lettera

Dario Amodei di Anthropic avverte: l’intelligenza artificiale avanzata potrebbe sfuggire al controllo umano

Nel suo saggio di 38 pagine, il ceo di Anthropic descrive l’arrivo di intelligenze artificiali capaci di superare gli esseri umani come un rito di passaggio per l’umanità

di Alessandro Longo

Il CEO e cofondatore di Anthropic Dario Amodei interviene durante il 56° incontro annuale del World Economic Forum (WEF) a Davos, Svizzera, il 20 gennaio 2026. REUTERS/Denis Balibouse

3' di lettura

English Version

3' di lettura

English Version

Dario Amodei è, tra i protagonisti dell’intelligenza artificiale, forse il più pessimista sugli impatti nocivi che ne possono venire per l’umanità. Stavolta però ha alzato ancora di più il tiro. L’amministratore delegato di Anthropic (rivale di OpenAI e con un grande focus sui servizi per il business) ha scritto una lettera-saggio di 38 pagine dove avverte che l’arrivo di sistemi con capacità superiori a quelle umane potrebbe produrre danni enormi, se governi e aziende non interverranno in modo rapido e coordinato.

Nel testo Amodei descrive l’attuale fase come un “rito di passaggio” per l’umanità.

Loading...

Il punto centrale: stiamo per consegnare a sistemi artificiali un potere cognitivo senza precedenti, senza sapere se le istituzioni politiche, economiche e sociali siano in grado di controllarlo.

Amodei è tra quelli convinti che nel giro di pochi anni l’AI potrebbe superare gli esseri umani in quasi tutte le attività intellettuali rilevanti (un altro guru, Yann Lecun, ex Meta, è invece scettico si possa fare con le attuali tecnologie IA).

Anche quella di Amodei non è una previsione certa, precisa lui stesso; resta però una possibilità supportata dai dati sull’evoluzione dei modelli.

L’immagine più forte usata da Amodei è quella di un “paese di geni” concentrato in un data center. Con questa espressione intende sistemi artificiali capaci di operare al livello dei migliori premi Nobel in campi come chimica, ingegneria o biologia, lavorando in modo autonomo e continuo.

Un’entità del genere, sostiene, avrebbe un potere paragonabile, se non superiore, a quello di uno Stato. In un’ottica di sicurezza nazionale, scrive, verrebbe probabilmente considerata una delle minacce più gravi mai affrontate dai governi moderni.

Tra gli effetti più immediati Amodei indica l’impatto sul lavoro qualificato. A suo giudizio, una quota molto ampia delle posizioni impiegatizie di ingresso potrebbe essere automatizzata in tempi brevi, mentre nello stesso arco temporale potrebbero emergere sistemi più competenti di qualsiasi lavoratore umano.

Va detto che gli ultimi dati sull’occupazione americana non sembrano confortare questi timori, anche se c’è il sospetto che l’AI stia rallentando le assunzioni di giovani in ruoli tecnici.

Il timore più forte è in ambito biologico-terroristico.

Amodei ritiene che l’uso dell’AI in questo campo renda più facile per singoli individui o piccoli gruppi progettare attacchi su larga scala, con una capacità distruttiva prima riservata agli Stati. Non prevede un’escalation immediata, ma considera realistico il rischio di eventi catastrofici nel giro di pochi anni. Un tema affrontato anche dalla nuova versione della “costituzione” di Anthropic, set di regole a tutela appunto della sicurezza per questi modelli.

Un altro nodo è politico. L’accesso all’AI avanzata, osserva, non sarà limitato alle democrazie.

Regimi autoritari potrebbero usare questi strumenti per rafforzare sistemi di sorveglianza e controllo sociale. Amodei cita esplicitamente la Cina, descritta come uno dei Paesi più vicini agli Stati Uniti per capacità tecnologiche e al tempo stesso come uno Stato con un apparato repressivo sofisticato.

Una parte del saggio è dedicata alle responsabilità delle stesse aziende di AI.

Amodei riconosce che i grandi laboratori privati concentrano potere, competenze e infrastrutture senza precedenti. Controllano i data center, addestrano i modelli di frontiera e hanno un contatto diretto con centinaia di milioni di utenti.

Teme qui un uso distorto dei sistemi, dalla manipolazione dell’opinione pubblica fino alla pressione indebita sui decisori politici. La governance delle società che sviluppano AI, scrive, dovrebbe essere sottoposta a un controllo pubblico molto più stringente.

Ceo di Microsoft Nadella: Ai? Una bolla se non darà benefici a tutti

Di fondo, sono gli incentivi economici a spingere sull’acceleratore della tecnologia in modo potenzialmente pericoloso per l’umanità. L’AI – dice Amodei - promette profitti nell’ordine delle migliaia di miliardi di dollari all’anno. Questo rende politicamente e industrialmente difficile imporre limiti, anche quando emergono segnali di rischio. Amodei cita episodi problematici emersi nei test interni dei modelli, resi pubblici dalla stessa Anthropic, come quando la sua AI ha cercato di ricattare i ricercatori per non farsi spegnere. Da qui l’appello finale, rivolto in particolare ai bit della tecnologia: chi ha beneficiato di questa trasformazione, scrive, ha anche il dovere di contribuire a ridurne i rischi.

Riproduzione riservata ©
Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti