Il Dipartimento della Difesa degli Stati Uniti ha avviato lo sviluppo di soluzioni di intelligenza artificiale alternative a Claude, a seguito della rottura contrattuale con Anthropic. Il Dipartimento sta attivamente perseguendo molteplici modelli linguistici (LLM) da integrare negli ambienti governativi rilevanti. Il lavoro di ingegnerizzazione è già iniziato e si prevede che questi modelli saranno disponibili per l'uso operativo molto presto.
La decisione giunge dopo la rottura di un accordo da 200 milioni di dollari tra Anthropic e il Pentagono.
La causa del fallimento sono state le clausole etiche imposte da Anthropic, che vietavano l'uso del suo modello AI, Claude, per la sorveglianza di massa interna o per armi autonome. Tali condizioni non sono state accettate dal Dipartimento della Difesa. Successivamente, il Segretario alla Difesa Pete Hegseth ha designato Anthropic come un “supply-chain risk”, una qualifica solitamente riservata a entità considerate ostili, impedendo di fatto la sua collaborazione con qualsiasi azienda che lavori per il Dipartimento. Anthropic ha risposto intentando due cause in tribunale, contestando violazioni di libertà fondamentali e abuso di potere.
Il Contesto Tecnico e Strategico
La designazione di Anthropic come rischio per la catena di fornitura e la conseguente esclusione di Claude dai sistemi militari, inclusi quelli classificati, segnano l'inizio di una nuova era nello sviluppo dell'intelligenza artificiale per la difesa.
Claude era precedentemente impiegata in sistemi critici come Project Maven, fornendo supporto per l'analisi delle immagini satellitari, la pianificazione operativa e il supporto decisionale in missioni reali.
Il Pentagono si trova ora nella necessità di sostituire un modello finora considerato centrale per le sue operazioni sensibili con soluzioni alternative, da rendere operative in tempi rapidi.
Reazioni dell’Industria e Prospettive Legali
Il settore tecnologico ha reagito con forza: gruppi industriali di rilievo come CCIA, ITI, SIIA e TechNet hanno presentato un amicus brief per chiedere la sospensione della designazione contro Anthropic. Essi ritengono che tale misura possa avere significative ripercussioni sull'innovazione e sulle regole di ingaggio tra il governo e i fornitori di intelligenza artificiale.
Parallelamente, Microsoft e decine di alti funzionari militari in pensione si sono schierati a fianco di Anthropic, sostenendo che il Pentagono ha abusato dell'autorità conferitagli con una misura «mai applicata prima a un'azienda americana».
Nonostante la rottura, il Pentagono ha concesso alle sue figure apicali una proroga oltre i sei mesi inizialmente previsti per la fase di transizione verso un fornitore alternativo.
Analisi e Implicazioni Future
L'obiettivo immediato del Pentagono è assicurarsi l'accesso a modelli di IA allineati alla sua visione operativa, ovvero privi di «vincoli ideologici» o «woke» nell'uso militare. Questa strategia riflette una priorità più ampia sul controllo dell'ecosistema AI nazionale e sull'uso della procurement come strumento di disciplina istituzionale.
D'altra parte, Anthropic potrebbe trasformare questo conflitto in un caso di studio: l'uscita dalla scena governativa non ha finora penalizzato la sua popolarità sul mercato consumer. Al contrario, Claude ha registrato una forte impennata di interesse e adozione, evidenziando la centralità del consenso etico come leva competitiva nell'IA contemporanea.
Verso un Nuovo Equilibrio tra Etica e Difesa
Il caso Anthropic-Pentagono rappresenta un nodo cruciale nel dibattito sull'IA etica applicata alla sicurezza nazionale. Il negoziato interrotto evidenzia una tensione sistemica tra chi intende garantire limiti all'uso della tecnologia e un'establishment che reclama piena libertà operativa. L'esito sarà decisivo per definire i nuovi equilibri tra governance pubblica, responsabilità privata e resilienza tecnologica.
Mentre il Pentagono mira a colmare rapidamente il vuoto lasciato da Claude, Anthropic sembra determinata a usare la battaglia legale per ridefinire i contorni di un approccio «sovrano» all'IA, fondato su standard etici indipendenti dalla coercizione istituzionale.
Il procedimento proseguirà nelle aule federali e nel dinamico panorama della tecnologia avanzata: una partita che metterà alla prova i confini di sovranità, sicurezza e responsabilità digitale in un contesto sempre più complesso e competitivo.