La startup Mercor, leader nel reclutamento AI, ha confermato un incidente di sicurezza legato a un attacco alla supply chain del progetto open source LiteLLM. L'evento evidenzia le vulnerabilità nella catena di approvvigionamento dell'IA, dovute alla dipendenza da componenti open source.

Compromesso LiteLLM

L'attacco a LiteLLM, libreria per modelli di linguaggio su larga scala (LLM), è emerso la scorsa settimana con la rilevazione di codice dannoso in un pacchetto. Nonostante la rapida rimozione, l'allarme è alto data l'adozione di LiteLLM, con milioni di download giornalieri.

L'attacco non era diretto a LiteLLM, ma un punto di inserimento strategico per compromettere gli utenti a valle, sfruttando una lacuna di sicurezza nella verifica delle dipendenze.

Impatto su Mercor

La compromissione ha avuto un impatto significativo su Mercor, con potenziale esposizione di dati sensibili dell'azienda e collaboratori. Il gruppo Lapsus$ ha rivendicato l'attacco, sostenendo accesso a dati Slack, ticket e video di interazioni AI-contractor. Heidi Hagberg, portavoce di Mercor, ha dichiarato che la società ha agito rapidamente per contenere e mitigare l'incidente, conducendo un'indagine approfondita con esperti forensi esterni e comunicando con clienti e partner.

Sicurezza AI: lezioni e misure

In risposta al compromesso, LiteLLM ha rivisto il processo di conformità, sostituendo Delve con Vanta per le certificazioni di sicurezza. Le indagini proseguono per determinare l'impatto e l'effettiva esposizione dei dati. Questa situazione evidenzia la necessità di pratiche di sicurezza robuste nell'ecosistema AI. La dipendenza da componenti open source, pur facilitando lo sviluppo rapido, introduce vulnerabilità intrinseche se non monitorate adeguatamente.

La lezione dal caso Mercor è chiara: le aziende devono implementare controlli di sicurezza più rigorosi e verifiche continue delle dipendenze. Il rafforzamento della sicurezza nella catena di fornitura dell'IA è fondamentale per prevenire futuri attacchi e garantire che le soluzioni AI rimangano sicure ed efficaci.