Il 18 febbraio 2026, durante l’India AI Impact Summit a Nuova Delhi, Sarvam AI — startup indiana nata dall’iniziativa AI4Bharat — ha svelato una nuova generazione di modelli di linguaggio open source. Questi modelli sono progettati per affermare la sovranità tecnologica nel campo dell’intelligenza artificiale, con un focus su efficienza nell’uso delle risorse, supporto a lingue locali e capacità avanzate di ragionamento complesso.
I nuovi modelli Sarvam‑30B e Sarvam‑105B
I due LLM lanciati, Sarvam‑30B e Sarvam‑105B, presentano rispettivamente 30 e 105 miliardi di parametri.
Entrambi adottano un’architettura mixture‑of‑experts, che attiva solo una porzione significativa dei parametri alla volta. Questo approccio riduce i costi computazionali, mantenendo performance di punta. Il modello più piccolo supporta una finestra di contesto di 32.000 token, ideale per applicazioni conversazionali in tempo reale. Quello più ampio raggiunge 128.000 token, pensato per compiti di ragionamento articolato e analisi di lungo periodo.
Open source e autonomia industriale
Sarvam ha dichiarato che i modelli sono stati addestrati da zero, senza dipendere da sistemi open source preesistenti. Il modello da 30B è stato pre‑trainato su circa 16 trilioni di token, mentre quello da 105B su un corpus multilingue ancora più ampio.
Entrambi saranno rilasciati come open source, sebbene i dettagli sulle licenze e sul codice completo non siano ancora stati specificati.
Applicazioni su misura per l’India
I modelli sono stati sviluppati per scenari reali su scala nazionale. La loro utilità è stata dimostrata in demo dal vivo con “Vikram”, un chatbot capace di conversare in diverse lingue indiane — tra cui hindi, punjabi e marathi — persino su feature phone con tastiera fisica. Inoltre, Sarvam‑105B ha analizzato in tempo reale un bilancio aziendale, rispondendo a domande finanziarie complesse. Questo conferma il suo valore per usi enterprise, ricerca e analisi di documenti estesi.
Strategia e contesto
Il lancio è in linea con la missione IndiaAI, voluta dal governo per ridurre la dipendenza dai fornitori stranieri e costruire infrastrutture AI nazionali.
I modelli sono stati addestrati su GPU fornite da IndiaAI Mission, con supporto tecnico di Yotta e Nvidia. Questo si inserisce in una più ampia strategia di autonomia tecnologica, posizionando Sarvam tra i protagonisti dell’ecosistema AI indiano in crescita.
Effetti potenziali sulla scena AI globale
La comparazione diretta con modelli internazionali come Google Gemma 27B, OpenAI GPT‑OSS‑20B e Qwen‑3‑Next‑80B sottolinea l’ambizione di Sarvam di competere a livello globale. L’obiettivo è offrire performance paragonabili con un approccio localizzato e conveniente.
Il cofondatore Pratyush Kumar ha evidenziato un approccio misurato alla scalabilità: “Non vogliamo dimensioni solo per le dimensioni, vogliamo capire i task che contano a scala e costruire per quelli”.
In sintesi, Sarvam AI dimostra che l’India può giocare un ruolo significativo nel panorama AI mondiale, con soluzioni open source, linguisticamente inclusive e progettate per operare sul campo reale. L’innovazione risiede non solo nei numeri dei parametri, ma nell’adattabilità culturale e operativa.