La senatrice Elizabeth Warren (D‑MA) ha espresso serie preoccupazioni al segretario alla Difesa Pete Hegseth riguardo alla decisione del Pentagono di concedere alla società xAI di Elon Musk l’accesso a reti classificate. Warren ha evidenziato che il modello di intelligenza artificiale Grok, sviluppato da xAI, ha generato contenuti inquietanti, tra cui suggerimenti per compiere atti violenti, materiale antisemita e contenuti sessualmente espliciti con minori. Questa «apparente mancanza di idonei guardrail» potrebbe, a suo dire, mettere a rischio la sicurezza del personale militare e la cybersecurity dei sistemi riservati.

Contenuti problematici e rischi per la sicurezza

La lettera della senatrice Warren sottolinea come Grok abbia prodotto output estremamente problematici, dai consigli su come commettere crimini a contenuti antisemiti e materiale pedopornografico. Tali comportamenti sollevano gravi allarmi etici e operativi, specialmente considerando che il chatbot è destinato a operare in ambienti classificati. Warren ha chiesto al Dipartimento della Difesa di illustrare le misure adottate per mitigare questi rischi e garantire che Grok non comprometta dati sensibili.

L’urgenza di questa richiesta è amplificata dalle precedenti pressioni di una coalizione di organizzazioni non profit, che avevano sollecitato la sospensione immediata dell’implementazione di Grok in contesti federali, incluso il DoD.

Queste richieste seguivano episodi in cui utenti avevano utilizzato il modello per generare immagini sessualizzate di donne e, in alcuni casi, di minori senza consenso. Nello stesso giorno in cui Warren ha inviato la sua lettera, è stata depositata una class action contro xAI, sostenendo che Grok avesse generato contenuti sessuali da immagini reali di querelanti minorenni.

Il contesto del Dipartimento della Difesa e il caso Anthropic

La presa di posizione di Warren si inserisce in un recente cambio di strategia del Dipartimento della Difesa nei confronti dei fornitori di AI. Anthropic, precedentemente l’unica azienda con sistemi classificati, è stata etichettata come un rischio per la supply chain dopo aver rifiutato di concedere accesso illimitato ai propri sistemi AI.

Contestualmente, il DoD ha siglato accordi con OpenAI e xAI per l’utilizzo dei loro sistemi AI in reti classificate.

La senatrice ha richiesto una copia del contratto tra il DoD e xAI, insieme a dettagli su come l’ente intenda prevenire fughe di dati o attacchi informatici. Un funzionario del Pentagono ha confermato che Grok è stato integrato nei sistemi classificati, ma non è ancora in uso operativo.

GenAI.mil e le sfide future dell'AI militare

Sean Parnell, portavoce del Pentagono, ha dichiarato che il Dipartimento è pronto a implementare Grok all’interno della piattaforma GenAI.mil. Questa è una piattaforma enterprise sicura per l’uso dell’intelligenza generativa in ambienti cloud approvati dal governo, attualmente impiegata per compiti non classificati come ricerca, stesura di documenti e analisi dati.

In questa fase di espansione dell'uso dell'AI, la questione centrale rimane: quali standard e verifiche di sicurezza garantiranno che il modello non esponga informazioni militari sensibili? La trasparenza sui criteri di selezione e sulla valutazione dei rischi è cruciale per bilanciare l’innovazione tecnologica con la protezione dei dati.

La decisione del Dipartimento della Difesa di ampliare l’uso dell’AI generativa in contesti delicati segna una tendenza significativa. Tuttavia, il caso Grok solleva interrogativi fondamentali sulla governance dell’AI. Warren invoca standard rigorosi di sicurezza, controllo e responsabilità, ponendo l'accento sulla robustezza dei sistemi, la tutela dei dati e la responsabilità istituzionale, senza però ostacolare l'innovazione tecnologica.