La competizione tra le due principali aziende statunitensi nel campo dell’intelligenza artificiale si intensifica. Dario Amodei, co-fondatore e CEO di Anthropic, ha mosso un'accusa diretta nei confronti di OpenAI, sostenendo che l'azienda abbia utilizzato una narrazione ingannevole per descrivere il proprio accordo con il Dipartimento della Difesa (DoD). Questa affermazione, definita “straight up lies” in una comunicazione interna e riportata da TechCrunch, segna un ulteriore inasprimento dello scontro.
Accuse incrociate: "safety theatre" contro "sicurezza vera"
In una comunicazione riservata al personale di Anthropic, Amodei ha etichettato l'approccio di OpenAI come puro “safety theatre”. Secondo il CEO di Anthropic, la società concorrente avrebbe stipulato il contratto militare principalmente per ragioni di immagine interna e per soddisfare il proprio personale. Al contrario, Anthropic, pur già legata a un contratto da 200 milioni di dollari, avrebbe rifiutato per impedire l'uso della tecnologia per scopi di vigilanza di massa o per lo sviluppo di armi autonome letali. Amodei ha sottolineato una netta distinzione: «They cared about placating employees, and we actually cared about preventing abuses», evidenziando una differenza tra la mera apparenza e l'applicazione concreta dei propri principi etici.
Amodei ha inoltre sostenuto che OpenAI abbia accettato un linguaggio contrattuale flessibile, basato sulla dicitura «all lawful purposes», che potrebbe legittimare in futuro usi controversi qualora la normativa dovesse cambiare, senza che l'azienda possa sottrarsi a tali sviluppi.
Il contesto: rottura e riavvicinamento con il Pentagono
Recentemente, i negoziati tra Anthropic e il Dipartimento della Difesa si erano interrotti su due questioni cruciali: l'impiego per la sorveglianza nazionale di massa e per armi autonome completamente automatizzate. Amodei aveva dichiarato l'impossibilità per Anthropic di accogliere tali richieste, nonostante le minacce di rescissione contrattuale e di classificazione come rischio per la catena di approvvigionamento.
Successivamente, il DoD ha siglato un accordo simile con OpenAI, che ha annunciato garanzie contrattuali senza precedenti per gli impieghi in aree sensibili.
Ripresa dei contatti e tensioni politiche
Nonostante l'acceso scontro, recenti indicazioni suggeriscono una ripresa dei colloqui tra Amodei e il Dipartimento della Difesa. Il dialogo si era interrotto bruscamente, con l'amministrazione che aveva ordinato la cessazione dell'utilizzo degli strumenti di Anthropic da parte delle agenzie federali, arrivando a considerare l'azienda un rischio strategico. La comunicazione interna di Amodei avrebbe ulteriormente complicato le possibilità di riconciliazione, con affermazioni che avrebbero potuto danneggiare la mediazione in corso.
Reazioni del mercato e implicazioni per la governance dell’AI militare
Il posizionamento di mercato delle due società ha subito scossoni significativi. Dopo l'accordo di OpenAI, si è registrato un calo nelle disinstallazioni dell'app ChatGPT negli USA, mentre le installazioni di Claude sono aumentate considerevolmente. Secondo dati di mercato, i download settimanali di Claude hanno superato significativamente quelli di gennaio.
La diatriba tra Amodei e OpenAI assume un rilievo politico e strategico, rivelando le tensioni tra sicurezza operativa e principi etici nello sviluppo dell'AI. Il contrasto evidenzia la fragilità del compromesso tra innovazione tecnologica e tutela dei diritti civili. Le scelte contrattuali odierne potrebbero definire gli standard globali per l'uso dell'AI in contesti governativi.
Questa vicenda si configura come un caso emblematico del confronto tra il settore tecnologico e l'etica: la coerenza e la trasparenza reale sono fondamentali, non bastano le dichiarazioni di intenti. L'evoluzione di questo scontro sarà un indicatore chiave per comprendere se l'industria dell'AI saprà distinguersi tra chi promuove la sicurezza a parole e chi, come sostiene Amodei, la applica con integrità.