Anthropic ha rilasciato il 21 gennaio 2026 una versione aggiornata della "Claude’s Constitution". Il documento, una sorta di carta costituzionale per l’IA, delinea i valori che guidano il chatbot Claude.

Un documento più complesso e rilevante

La nuova edizione della costituzione, rispetto alla prima versione del 2023, si presenta più articolata. Mentre la prima era un elenco di principi etici integrati nel sistema di addestramento "Constitutional AI", questa nuova versione si estende per circa 80 pagine. Approfondisce come garantire sicurezza, etica, conformità e utilità, i quattro valori fondamentali che guidano Claude.

Il documento spiega perché è importante che il modello comprenda le motivazioni alla base di tali principi.

Sicurezza, etica e utilità: i principi chiave

Anthropic ribadisce la gerarchia dei valori che Claude deve rispettare: essere largamente sicuro, larga eticità, conformità alle linee guida di Anthropic e, infine, utilità genuina. Ogni sezione delinea come operare in situazioni delicate, come gestire emergenze psicologiche (indirizzando l’utente verso servizi di emergenza anche con informazioni di base) o rifiutare richieste pericolose, come lo sviluppo di armi biologiche.

Etica pratica e benessere a lungo termine

La nuova costituzione pone meno enfasi sulla speculazione etica e più sull’etica applicata, ovvero sulla capacità di Claude di agire eticamente in contesti reali.

Si sottolinea la necessità di considerare non solo i desideri immediati dell’utente, ma anche il suo benessere futuro. Questo approccio trasforma Claude in una figura simile a un consigliere ponderato, piuttosto che un semplice esecutore di comandi.

Coscienza del chatbot: uno spunto di riflessione

Il passaggio più sorprendente riguarda la questione dell’eventuale coscienza del modello. Nel documento, gli autori si interrogano sul “moral status” di Claude: “La condizione morale dei modelli AI è una questione seria che vale la pena considerare”. Un riferimento che modifica la percezione di Claude, non più solo un assistente automatizzato, ma forse qualcosa di più complesso.

Il futuro della governance dell'IA

L’adozione di un documento così dettagliato, e pubblicato sotto dominio pubblico, potrebbe anticipare un futuro in cui la governance dei modelli generativi richiederà standard formali e trasparenti. Questa costituzione, che trasforma Claude in un “obiettore coscienzioso” capace di rifiutare comandi lesivi, potrebbe influenzare approcci regolatori e politiche nei prossimi anni.

Operatività e filosofia

La revisione del documento non nasce da un interesse filosofico, ma da esigenze operative concrete. Claude è chiamato ad assumere funzioni più autonome e l’assenza di limiti espliciti risulta rischiosa. Questo approccio anticipa un modello di fiducia progressiva, in cui l’IA guida le decisioni e agisce con meno supervisione umana, ma all’interno di vincoli più espliciti.

L’evoluzione della costituzione riflette un nuovo paradigma: il passaggio da procedure rigide a una etica comprensiva, che spiega il perché delle regole agli stessi modelli AI, concedendo margini di giudizio sotto la guida di valori condivisi.

Con questo aggiornamento, Anthropic rafforza la propria identità come azienda focalizzata sull’AI responsabilmente orientata al lungo termine, e si pone come una delle poche realtà a integrare riflessioni su autonomia, moralità e regolazione nella progettazione di un assistente intelligente.