Anthropic ha formalmente accusato tre laboratori cinesi — DeepSeek, Moonshot AI e MiniMax — di aver avviato campagne su scala industriale di “distillation” sfruttando il suo modello Claude. La tecnica, legittima se usata internamente, diventa controversa quando impiegata senza autorizzazione per replicare capacità proprietarie. La vicenda emerge in un contesto di crescenti tensioni e discussioni negli Stati Uniti sulle politiche di controllo delle esportazioni di chip avanzati per l’intelligenza artificiale.
La dinamica delle accuse
Secondo le segnalazioni diffuse da Anthropic, i tre laboratori avrebbero creato circa 24.000 account fraudolenti per produrre oltre 16 milioni di interazioni con Claude.
MiniMax si sarebbe distinto con ben 13 milioni di scambi concentrati su agentic reasoning, tool use e orchestrazione, mentre Moonshot AI ha rivolto l’attenzione su coding, visione artificiale e sviluppo di agenti, e DeepSeek su logica di base e criteri di allineamento. Il modus operandi include l’uso di proxy e architetture a cluster per aggirare le restrizioni geografiche.
Attraverso questa strategia, i laboratori avrebbero assimilato le funzionalità distintive di Claude, violando i termini di servizio e mettendo in pericolo gli standard di sicurezza associati a modelli frontiera, in particolare quelli relativi a contenuti sensibili o uso malevolo.
Esportazioni di chip AI al centro della contesa
Le accuse di Anthropic arrivano mentre negli Stati Uniti continua il dibattito su quanto rigorose debbano essere le restrizioni all’esportazione di chip AI avanzati verso la Cina. Le imprese americane, tra cui Nvidia, hanno recentemente ottenuto il via libera per esportare chip come l’H200, decisione controversa che ha acceso il confronto. Anthropic sostiene che la capacità di distillation su vasta scala richieda l’accesso a queste tecnologie hardware avanzate, confermando dunque l’efficacia delle restrizioni come barriera non solo all’addestramento diretto ma anche a questa forma indiretta di appropriazione.
Le risposte e le misure di difesa
In risposta, Anthropic ha introdotto sistemi di fingerprinting comportamentale per individuare e ostacolare le campagne di distillation, e ha chiesto un’azione coordinata tra industria, provider cloud e policymakers.
L’azienda insiste sull’importanza di difendere i modelli tramite misure preventive e condivise, anche per evitare che copie derivate senza adeguate salvaguardie possano essere usate per scopi pericolosi come la sorveglianza di massa, la manipolazione online o lo sviluppo di armi biologiche.
Implicazioni per la sicurezza nazionale e la governance AI
La vicenda ha risvolti chiaramente politici e strategici: modelli clonati privi di protezioni possono rappresentare una minaccia crescente, spingendo a rafforzare i controlli sulle esportazioni e ad adottare misure più sofisticate di monitoraggio del comportamento AI. Esperti come Dmitri Alperovitch hanno sottolineato come questi fatti dimostrino un’evidente esigenza di limitare l’accesso a hardware AI avanzato per aziende potenzialmente ostili, a tutela della leadership tecnologica statunitense e della sicurezza globale.
Simultaneamente, i legislatori stanno diventando più attenti: l’inasprimento delle politiche sui chip avanzati, come illustrato dalle discussioni sulle esportazioni H200 e dalla proposta di atti legislativi bipartisan che impediscano decisioni sfavorevoli in merito (SAFE CHIPS Act), riflettono una crescente preoccupazione bipartisan riguardo alla proliferazione incontrollata di capacità AI.
Questo caso evidenzia come la deterrenza hardware non basti più da sola: serve una governance che includa strumenti per la tracciabilità del compute, l’identificazione degli utenti e una cooperazione internazionale strategica, integrando anche approcci innovativi come il “Know-Your-Customer” per i provider di calcolo.
In definitiva, l’accusa di Anthropic non riguarda solo una violazione contrattuale, ma il cuore della lotta per il controllo della futura generazione di AI. La capacità di estrarre risorse cognitive da modelli sofisticati senza rispetto per i confini normativi sfida le politiche industriali contemporanee, rafforzando l’urgenza di una governance AI robusta, multilivello e globale.