Il 23 febbraio 2026, il segretario alla Difesa statunitense Pete Hegseth ha convocato d'urgenza Dario Amodei, Ceo di Anthropic, presso il Pentagono. L'incontro mirava a discutere l'utilizzo dell'intelligenza artificiale Claude per scopi militari, un tema che evidenzia una crescente tensione tra le esigenze operative e i principi etici legati all'IA.
Un ultimatum con risvolti strategici
Secondo quanto riportato da TechCrunch, Hegseth ha comunicato ad Amodei che l'incontro non era meramente conoscitivo, ma configurava un vero e proprio ultimatum. La richiesta era chiara: o Anthropic avrebbe accettato di allentare alcune delle proprie salvaguardie sull'uso di Claude, oppure l'azienda sarebbe stata esclusa dalla catena di approvvigionamento militare.
Tale esclusione sarebbe avvenuta tramite una designazione di "supply chain risk", un'etichetta solitamente riservata a entità straniere considerate sospette.
Claude: tra contratti e controversie
Il rapporto tra Anthropic e il Pentagono vanta radici consolidate. L'azienda aveva infatti siglato un contratto del valore di 200 milioni di dollari nell'estate del 2025, e Claude rappresenta attualmente l'unico modello di IA avanzato integrato nei sistemi classified del Dipartimento della Difesa.
Il punto di frizione è emerso all'inizio di gennaio, quando il Wall Street Journal ha reso noto che Claude sarebbe stato impiegato in un'operazione segreta volta alla cattura di Nicolás Maduro in Venezuela. Questo utilizzo è stato contestato da Anthropic, le cui politiche vietano esplicitamente l'impiego dell'IA in operazioni violente, nella sorveglianza di massa o con armi autonome prive di controllo umano.
Etica contro flessibilità operativa
Anthropic ha mantenuto fermi i propri limiti etici: l'IA non deve essere utilizzata per la sorveglianza di massa dei cittadini americani né per armi letali autonome senza supervisione umana. Questa posizione ha generato crescente frustrazione nel Pentagono, desideroso di ottenere piena libertà sui "tutti gli usi legittimi" del modello.
La designazione di "supply chain risk", qualora venisse confermata, comporterebbe un rischio concreto di isolamento per Anthropic. Tutte le aziende che collaborano con il Pentagono sarebbero infatti tenute a certificare di non utilizzare Claude, con potenziali ripercussioni significative per partner strategici come Palantir, OpenAI, Google e xAI.
Il nodo del controllo tecnologico
Come evidenziato da Wired, lo scontro tra Anthropic e il Pentagono trascende il singolo contratto. Riflette una tensione più profonda tra chi considera l'IA una tecnologia da guidare con estrema cautela e chi, invece, la vede come un vettore strategico per la sicurezza nazionale, da impiegare operativamente senza eccessivi vincoli.
In questo scenario, l'esito dell'incontro del 24 febbraio assume un'importanza cruciale. Se Anthropic dovesse confermare i propri limiti etici, il rischio di isolamento diverrebbe tangibile. Al contrario, un'eventuale adesione alle richieste militari solleverebbe interrogativi interni sui confini della responsabilità tecnologica.
Il confronto tra Hegseth e Amodei rappresenta, pertanto, una sfida esistenziale per l'intera industria dell'IA.
L'equilibrio tra sicurezza etica e capacità operativa viene messo alla prova in uno dei settori più delicati dell'innovazione, dove il futuro della tecnologia si intreccia indissolubilmente con la morale e gli interessi strategici delle nazioni.