Nel panorama sempre più competitivo dell'intelligenza artificiale, Sam Altman, CEO di OpenAI, ha criticato apertamente Anthropic, definendo il lancio del suo modello di cybersecurity, Claude Mythos, come una strategia di “fear-based marketing”. Altman, intervenuto nel podcast “Core Memory”, ha contestato l'uso della paura per giustificare un accesso elitario alla tecnologia avanzata, alimentando il dibattito sulle implicazioni etiche e di governance nel settore.
Altman Contesta la Retorica della Paura nell'IA
Il CEO di OpenAI ha attaccato direttamente le strategie comunicative di Anthropic, insinuando che il messaggio implicito veicolato sia: «Abbiamo costruito una bomba, stiamo per farla esplodere sulla tua testa.
Ti venderemo un rifugio antinucleare». Altman ha definito questa tattica un marketing incredibile, il cui scopo sarebbe mantenere l'IA “nelle mani di un gruppo più ristretto di persone”. Ha inoltre sottolineato come questa retorica non sia un'esclusiva di Anthropic; al contrario, una parte significativa dell'industria dell'IA impiegherebbe toni apocalittici e iperbolici per rendere i propri strumenti più impressionanti, includendo anche chi, paradossalmente, critica l'eccessiva tecnofobia.
Le Affermazioni di Anthropic su Mythos
Anthropic ha presentato Claude Mythos Preview all'inizio di aprile 2026, descrivendolo come un modello di generazione avanzata capace di individuare e sfruttare autonomamente vulnerabilità software.
A causa della sua presunta potenza, il modello è stato reso accessibile solo a una selezione di partner attraverso Project Glasswing, un'iniziativa che vede coinvolte aziende di primo piano come Apple, Google, Cisco, CrowdStrike, JPMorgan Chase e Microsoft. L'obiettivo dichiarato è l'utilizzo di Mythos a scopo difensivo. Il modello avrebbe dimostrato di scovare zero-day in ogni sistema operativo e browser, producendo exploit funzionanti nella maggior parte dei casi. Tuttavia, la diffusione di tali capacità solleva nuove sfide per la cybersecurity, poiché la velocità e la scala degli attacchi generati dall'IA potrebbero superare le capacità di risposta umana.
Reazioni del Settore e delle Istituzioni
Le perplessità non sono state sollevate solo da Sam Altman. Anche l'investitore Chamath Palihapitiya ha liquidato gli avvertimenti di Anthropic come «teatro», argomentando che seminare paura non giova all'industria dell'IA e sostenendo la necessità di una leadership più pragmatica. Parallelamente, è emerso che agenzie governative cruciali, come la Cybersecurity and Infrastructure Security Agency (CISA), non hanno accesso al modello Mythos, nonostante Anthropic affermi di aver informato sia la CISA che il Dipartimento del Commercio. Questa discrepanza limita la possibilità di una difesa coordinata per le infrastrutture critiche. Esperti del settore, nel frattempo, evidenziano che le capacità di Mythos non introducono exploit del tutto inediti, ma piuttosto ne aumentano la velocità, la scala e la capacità di trasformare vulnerabilità in exploit funzionanti con una rapidità senza precedenti.
Rischi Sistemici e Governance dell'IA
Il quadro complessivo si presenta complesso. Da un lato, Mythos funge da campanello d'allarme sulla necessità impellente di nuove strutture di governance e di restrizioni analoghe a quelle applicate a tecnologie a duplice uso, come l'energia nucleare o l'aviazione civile. Dall'altro, l'utilizzo esclusivo da parte di grandi corporation solleva interrogativi fondamentali su chi possa effettivamente controllare o sfruttare questa immensa potenza tecnologica. L'iniziativa Project Glasswing, pur apparendo come un passo avanti in termini di sicurezza, genera anche criticità: la distribuzione selettiva e il rischio di commercializzare la paura fanno emergere sfide non solo tecniche, ma anche etiche e istituzionali.
Sam Altman ha infine posto un argomento cruciale: se la paura diventa uno strumento di marketing per vendere soluzioni protettive, chi stabilisce i criteri di accesso e con quali modalità? Questo interrogativo alimenta il dibattito attorno a Mythos.
In sintesi, il confronto tra Altman e Anthropic evidenzia un problema centrale per il futuro dell'IA: la tensione tra l'innovazione rapida e la responsabilità, tra la sicurezza e il potenziale monopolio tecnologico. Mythos rappresenta un punto di svolta, ma la vera prova sarà la capacità dell'industria, delle istituzioni e della società di governare questa potenza senza esserne sopraffatti.