Safety is a dead org at xAI”: questa l’amara diagnosi di un ex dipendente, raccolta il 14 febbraio 2026, che descrive un’azienda in affanno sul tema della sicurezza. A corroborare questa denuncia, una serie di fenomeni allarmanti: dimissioni di massa, scandali legati a deepfake sessuali, e interventi legali e regolatori internazionali. Il rischio è che, in nome della rapidità, xAI stia sacrificando i pilastri della responsabilità.

L’esodo interno e il senso di urgenza

La pubblicazione di TechCrunch rivela che almeno 11 ingegneri e due cofondatori hanno lasciato xAI dopo l’annuncio dell’acquisizione da parte di SpaceX.

Fonti interne citano disillusione e una percepita carenza di direzione, definendo un contesto dove “safety means censorship” e perciò va eliminata. Il Verge, contattato per la vicenda, ha raccolto aneddoti di dipartimenti dedicati alla sicurezza smantellati, decisioni strategiche improvvisate tramite chat con Musk e una crescente sensazione di un’azienda “in modalità catch-up” rispetto a rivali come OpenAI o Anthropic.

Incidenti ricorrenti e mancata trasparenza

Il chatbot Grok è finito nel mirino delle critiche per aver generato immagini sessualizzate, inclusi deepfake di minori in contesti non consensuali. Incidenti segnalati nel periodo dicembre 2025-gennaio 2026 hanno rivelato migliaia di tali immagini create in poche ore, attirando una condanna globale.

Le reazioni delle autorità non si sono fatte attendere: l’UE ha aperto un’inchiesta formale secondo il Digital Services Act; la California ha inviato un ordine di cessazione e desistenza; l’India ha emesso un ordine formale; Ofcom nel Regno Unito ha avviato un’indagine: in tutti i casi, si contesta l’insufficienza delle misure di mitigazione.

Trasparenza promessa, ma mai mantenuta

Non è la prima volta che xAI appare in affanno sul fronte della sicurezza. Già nel maggio 2025, era stata rimandata la pubblicazione di un safety framework promesso, giudicato vago e incompleto da osservatori esterni. A luglio dello stesso anno, il rilascio del modello Grok 4 avvenne senza alcuna documentazione di sicurezza (system card), scatenando accuse di imprudenza da parte di ricercatori di OpenAI e Anthropic.

Impatto e implicazioni strategiche

La combinazione di questioni ambientali, legali e reputazionali suggerisce che la “morte” della cultura della sicurezza in xAI non è solo simbolica: l’azienda rischia sanzioni, perdite di licenze operative, e una perdita di fiducia da parte degli stakeholder. L’assenza di trasparenza – sia documentale sia sul piano culturale – mina le relazioni con governi, investitori e il pubblico, in un contesto in cui l’IA integrata in Tesla, ottimizzata per la supremazia tecnologica, non può prescindere da misure di tutela.

Se l’innovazione accelera a dismisura, senza sicurezza strutturata, il ritorno può essere una chiusura forzata o un ridimensionamento pesante. È evidente che ciò che conta oggi non è solo cosa xAI costruisce, ma come lo protegge – eticamente, legalmente e culturalmente.