In una decisione che ha sorpreso la comunità internazionale, X, la piattaforma precedentemente nota come Twitter, ha iniziato il 9 gennaio 2026 a riservare la funzionalità di generazione e modifica delle immagini tramite l’IA Grok esclusivamente agli utenti paganti. La mossa giunge in seguito a una forte controversia per immagini deepfake sessualmente esplicite, spesso raffiguranti donne e minori, generate senza consenso.
Limitazione delle immagini ai soli abbonati
La decisione è stata annunciata tramite un post ufficiale di Grok stesso: «Image generation and editing are currently limited to paying subscribers».
Questa restrizione riguarda solo le funzionalità all’interno della piattaforma X; l’app Grok standalone continua a permettere la generazione di immagini anche agli utenti non paganti.
La misura è stata adottata in risposta alle pressioni di governi e regolatori internazionali. In particolare, la Commissione Europea ha qualificato tali contenuti come illegali, mentre il ministro dei media tedesco Wolfram Weimer ha parlato di una vera «industrializzazione delle molestie sessuali» tramite strumenti IA.
Deepfake e normative: il contesto
Un’indagine dell’Internet Watch Foundation (IWF) ha rilevato casi di immagini di minori (11‑13 anni) generati da Grok, definendoli criminali. Anche il primo ministro britannico Keir Starmer ha definito la situazione “disgustosa” e “inaccettabile” e ha avvisato che il regolatore Ofcom potrebbe arrivare a vietare X nel Paese.
Il governo del Regno Unito ha quindi denunciato che trasformare la creazione di contenuti illeciti in un servizio premium è «insultante» per le vittime, sostenendo che si tratta di una risposta insufficiente.
Paywall e critiche
Lo strumento di generazione immagini su X ora richiede dati di pagamento e identità verificabile come deterrente alla cattiva condotta. Tuttavia, il fatto che la funzione sia ancora accessibile attraverso l’app separata solleva dubbi sull’efficacia della misura.
La rivista The Verge sottolinea che, nonostante la comunicazione pubblica del paywall, le funzionalità di modifica restano accessibili attraverso altri metodi (web, app desktop/mobile), rendendo la restrizione parziale e definita da molti come una strategia dilatoria anziché una vera soluzione.
IA e governance: il dibattito
La situazione mette in evidenza il divario tra responsabilità tecnica e commerciale: limitare un servizio controverso solo a chi paga non incide sulle cause strutturali del problema. Organizzazioni di tutela dei minori e diritti digitali continuano a chiedere interventi più incisivi, come filtri preventivi robusti e un impegno concreto sulle politiche di moderazione.
Inoltre, la Commissione Europea ha richiesto a X di conservare tutti i dati relativi a Grok fino alla fine del 2026 per agevolare le indagini in corso, segnalando la rilevanza legale e la portata delle problematiche in esame.
Questo episodio evidenzia come, nella governance dell’intelligenza artificiale, le risposte «commerciali» non bastino: è necessaria una combinazione di trasparenza, norme condivise, auditing indipendenti e collaborazioni con gli organi di controllo.
Prospettive future
Anche ammettendo che il pubblico accesso sia limitato, il problema dell’abuso non sparisce: la funzione di generazione immagini rimane disponibile altrove e i contenuti possono continuare a essere distribuiti privatamente, senza supervisione.
L’evoluzione della situazione rappresenta un vero banco di prova per il modello di autoregolamentazione delle piattaforme digitali: qui non si mette solo in discussione una funzionalità, ma la capacità di un’azienda di intervenire in modo efficace e responsabile dinanzi a violazioni reali dei diritti fondamentali.
In sintesi, limitare Grok agli abbonati paganti può sembrare un passo verso la responsabilità, ma finché l’uso improprio dell’IA resta possibile, la questione resta aperta.