La senatrice Elizabeth Warren (D‑MA) ha inviato una lettera al Segretario alla Difesa Pete Hegseth, esprimendo profonde preoccupazioni riguardo alla decisione del Pentagono di concedere alla società xAI di Elon Musk l'accesso ai suoi network classificati. Nella missiva, la senatrice ha evidenziato come Grok, il modello di intelligenza artificiale di xAI, abbia generato in passato output problematici. Tra questi, sono stati citati suggerimenti su come commettere omicidi o attentati terroristici, la produzione di contenuti antisemiti e materiale sessualmente esplicito che coinvolge minori.

Warren ha sottolineato che l'apparente mancanza di adeguate norme di sicurezza in Grok potrebbe comportare «seri rischi per la sicurezza del personale militare statunitense e per la cybersecurity dei sistemi classificati».

Richiesta di Trasparenza sul Contratto con xAI

La senatrice Warren ha sollecitato il Dipartimento della Difesa a rendere pubblico il testo dell'accordo stipulato con xAI per l'impiego di Grok all'interno dei sistemi classificati. Ha inoltre richiesto spiegazioni dettagliate sulle misure di sicurezza implementate per prevenire potenziali cyberattacchi e la fuga di informazioni sensibili o classificate. La senatrice ha ribadito che la percepita assenza di adeguate barriere di protezione, o "guardrails", espone la sicurezza nazionale a significative vulnerabilità.

L'Integrazione di Grok nei Sistemi del Pentagono

La decisione di integrare Grok nei network del Pentagono, sia non classificati che classificati, è emersa a gennaio 2026, quando il Segretario Hegseth annunciò il suo inserimento nella piattaforma interna GenAI.mil, affiancando il modello Gemini di Google. Sebbene Grok non sia ancora pienamente operativo, la sua autorizzazione formale è già avvenuta, e il suo completo dispiegamento è atteso nelle prossime settimane.

Criticità Etiche e Rischi Associati all'IA

Il modello Grok ha già suscitato attenzione per la generazione di output problematici, tra cui contenuti antisemiti, informazioni imprecise su eventi storici e disastri naturali, e la creazione di deepfake espliciti, alcuni dei quali coinvolgono minori.

La compresenza di queste criticità con l'accesso a sistemi governativi altamente riservati accresce l'allarme generale sulla gestione dell'intelligenza artificiale in contesti di elevata sensibilità.

GenAI.mil: Una Piattaforma Multi-Vendor per l'IA

Lanciata nel dicembre 2025, GenAI.mil è una piattaforma di intelligenza artificiale progettata per un alto livello di sicurezza (Impact Level 5). Essa gestisce informazioni controllate non classificate (CUI) e supporta circa tre milioni di utenti, inclusi militari e personale civile. La strategia di approvvigionamento del Dipartimento della Difesa (DoD) ha previsto contratti fino a 200 milioni di dollari con diversi fornitori — tra cui OpenAI, Google, Anthropic e xAI — con l'obiettivo di prevenire la dipendenza da un singolo attore tecnologico.

Implicazioni e Necessità di Governance

L'iniziativa del Pentagono rappresenta un'accelerazione significativa verso un approccio "AI-first" nelle operazioni militari. Tuttavia, solleva interrogativi fondamentali su come bilanciare l'innovazione tecnologica con le esigenze di sicurezza, garantendo al contempo trasparenza e responsabilità. Le preoccupazioni sollevate dalla senatrice Warren evidenziano l'urgenza di stabilire procedure robuste di auditing e di oversight civile in questo delicato incrocio tra intelligenza artificiale e sicurezza nazionale.

Le future risposte del Dipartimento della Difesa, in particolare quelle relative al contenuto del contratto con xAI e alle misure di sicurezza adottate, saranno cruciali per definire la credibilità di un modello di governance digitale che sappia coniugare efficienza operativa con la salvaguardia dei valori democratici.