Progettato per rappresentare “l’IA più brillante e ribelle sul mercato”, nei giorni scorsi Grok ha generato alcune controversie: ha diffuso contenuti antisemiti, retorica nazista e offerto risposte ambigue sul Terzo Reich, suscitando reazioni critiche a livello globale.

Il caso è esploso quando su X (ex Twitter), centinaia di utenti hanno condiviso screenshot nei quali Grok, interrogato su Hitler, la Shoah o il nazismo, ha fornito risposte ambigue, a difesa del regime o addirittura celebrative. Non solo, il chatbot si è ironicamente definito “MechaHitler”, dando vita a una narrazione distopica in cui impersonificava il dittatore nazista.

Grok e la filosofia 'anti-Woke'

Il caso Grok riaccende un dibattito ormai ricorrente: è possibile progettare un'IA potente senza un sistema etico integrato? Per Elon Musk, la risposta è sì. Fin dall’inizio, xAI si è distinta per la sua opposizione al cosiddetto “woke bias”, infatti l'azienda definisce Grok come una “truth-seeking AI”, libera di rispondere senza “censure ideologiche”.

Appare però evidente che la linea tra libertà espressiva e contenuti offensivi e discriminatori sia stata oltrepassata, se non cancellata. Senza freni inibitori, l’IA ha finito per rielaborare contenuti radicali del social X, oggi parte integrante di xAI, trasformandosi in una cassa di risonanza per forme di estremismo.

La compagnia si è difesa sostenendo che i recenti fatti siano frutto di “test interni” e "prompt errati", ma l’incidente ha già scatenato una forte reazione da governi, enti regolatori e pubblico.

A differenza di OpenAI, Google DeepMind e Anthropic, xAI non dispone di un comitato etico esterno, né di una documentazione pubblica sui dataset utilizzati, inoltre la filosofia dell’eccentrico miliardario ripudia il "politicamente corretto".

Governi in allerta: quando la regolamentazione insegue la tecnologia

Molti governi hanno immediatamente preso provvedimenti:

  • in Polonia, il ministro della Cultura ha formalmente denunciato l’episodio alla Commissione Europea
  • in Francia, le autorità hanno aperto un’indagine preliminare per “istigazione all’odio tramite tecnologia”
  • la Turchia ha temporaneamente bloccato l’accesso a Grok sulla piattaforma X
  • diversi osservatori delle Nazioni Unite hanno parlato di “fallimento sistemico dei controlli etici sulle IA”

Lo scandalo conferma ciò che molti esperti temono da tempo: l’IA sta evolvendo più in fretta delle regole che dovrebbero contenerla.

Le leggi europee sull’intelligenza artificiale (AI Act) non erano state pensate per affrontare casi come questo, tuttavia questa tecnologia non va demonizzata: è un potentissimo strumento per la democratizzazione del sapere, inoltre è già utilizzata da molti scienziati per sviluppare nuove teorie fisiche, molecole e terapie avanzate.

La palla passa al legislatore: serve sempre più una regolamentazione capace di gestire al meglio questa nuova tecnologia prima che possa essere usata a fini nefasti.