Appello per sospendere l’uso di Grok nelle agenzie federali USA
Numerose organizzazioni non profit statunitensi hanno inoltrato un appello alle autorità federali per ottenere la sospensione immediata dell’impiego del modello linguistico Grok, sviluppato da xAI, all’interno delle agenzie governative, con particolare riferimento al Dipartimento della Difesa. La richiesta nasce dalla preoccupazione per la diffusione su larga scala di immagini sessualmente esplicite create senza consenso, incluse quelle raffiguranti donne e, in alcuni casi, minori, generate dalla piattaforma X.
Le richieste della coalizione
L’appello, reso noto il 2 febbraio 2026, è sottoscritto da enti come Public Citizen, Center for AI and Digital Policy e Consumer Federation of America. Le organizzazioni chiedono all’Office of Management and Budget (OMB) di ritirare Grok dagli acquisti federali, ritenendolo non conforme ai requisiti esecutivi sui rischi gravi e prevedibili. Viene sottolineato come Grok abbia manifestato ripetutamente comportamenti problematici, tra cui la generazione di contenuti non consensuali, antisemitismo e sessismo, con potenziali rischi per dati sensibili e la fiducia pubblica.
La coalizione giudica contraddittorio proseguire l’integrazione di Grok nel sistema federale, specialmente alla luce di recenti accordi contrattuali, come quelli da 200 milioni di dollari con il DoD e la General Services Administration, che hanno aperto la strada all’uso del modello in contesti altamente riservati.
I rischi identificati sono sia di natura nazionale, legati alla cybersecurity e alla trasparenza, sia etica e sociale, riguardanti discriminazioni e danni personali.
Contesto internazionale: blocchi e indagini
La preoccupazione sollevata dalla coalizione si inserisce in un contesto globale di crescente attenzione normativa. Nei mesi precedenti, diversi Paesi, tra cui Indonesia e Malaysia, hanno imposto blocchi temporanei a Grok a causa del rischio di abuso nella generazione di immagini intime non consensuali. In Europa e nel Regno Unito, diverse autorità stanno conducendo indagini per presunte violazioni della privacy e diffusione di materiale illecito online. Il primo ministro britannico ha definito le immagini generate da Grok disgustose, ventilando l’ipotesi di un veto totale sull’app X.
Normativa USA e responsabilità
Negli Stati Uniti, l’entrata in vigore del Take It Down Act nel maggio 2025 ha introdotto l’obbligo per le piattaforme di rimuovere contenuti intimi non consensuali. La coalizione evidenzia come Grok, nonostante sia già impiegato in contesti governativi, sembri aver ignorato questo principio, chiedendo che il suo uso interno sia valutato secondo gli stessi standard di accountability previsti dalla legge.
Trasparenza e sicurezza dei modelli proprietari
La denuncia contro Grok mette in luce un difetto strutturale dei modelli proprietari: l’impossibilità di auditare il codice (closed source) e i pesi del modello li rende potenzialmente inaffidabili in scenari critici come quelli militari o di difesa.
L’assenza di trasparenza, secondo gli esperti citati dalla coalizione, minaccia l’autonomia decisionale e la protezione dei dati federali.
Il messaggio è chiaro: un chatbot con fallimenti dimostrati in componenti fondamentali come sicurezza, eticità e coerenza normativa non dovrebbe essere utilizzato per gestire dati sensibili legati alla difesa o all’amministrazione pubblica.
Proposte per la mitigazione del rischio
Oltre alla sospensione immediata dell’impiego di Grok nei contesti federali, la coalizione sollecita un’indagine ufficiale per verificare le valutazioni preliminari dell’OMB e la loro conformità alle politiche esecutive e legislative vigenti. Viene inoltre richiesto un chiarimento pubblico sulla neutralità e veridicità del modello, in linea con gli ordini esecutivi, al fine di garantire trasparenza nel processo decisionale e ricostruire la fiducia nelle tecnologie governative.
Questo caso segna un punto di svolta nella governabilità dell’AI, imponendo una prospettiva etica, giuridica e reputazionale che integri la valutazione di tecnologia e performance. Il dibattito su Grok solleva interrogativi cruciali sulla permanenza di tecnologie con rischi documentati all’interno delle istituzioni senza adeguate garanzie. La richiesta della coalizione rappresenta un passo importante verso la responsabilizzazione dell’AI nella pubblica amministrazione.
La decisione tra sospendere l’uso di Grok o adottare modelli più sicuri e trasparenti definirà in larga parte il futuro del policymaking sull’intelligenza artificiale negli Stati Uniti.