YouTube ha annunciato il 10 marzo 2026 l’estensione del suo sistema di rilevamento di deepfake – già operativo sul programma Partner – a un gruppo pilota composto da funzionari governativi, candidati politici e giornalisti. Questa evoluzione mira a proteggere la conversazione pubblica dalla diffusione di contenuti profondamente ingannevoli generati dall’intelligenza artificiale.

Il contesto dell’espansione deepfake

La funzionalità di likeness detection di YouTube, pensata per identificare volti simulati creati con strumenti AI, era inizialmente disponibile per circa 4 milioni di creatori appartenenti al programma Partner.

Ora la piattaforma ha deciso di estendere questa tecnologia a figure pubbliche, riconoscendo il loro ruolo chiave nella diffusione di contenuti sensibili e la potenziale vulnerabilità a manipolazioni malevole.

“Questa espansione riguarda l’integrità della conversazione pubblica” ha spiegato Leslie Miller, vicepresidente per Government Affairs and Public Policy di YouTube, sottolineando le conseguenze sociali di deepfake realistici che mettono in discussione la percezione della verità.

Grazie a questa novità, i membri del programma pilota potranno verificare video che sfruttano la loro immagine, richiedere la rimozione dei contenuti non autorizzati e partecipare all’evoluzione del sistema – con l’obiettivo futuro di estendere l’accesso a un bacino più vasto di personaggi pubblici.

Funzionamento e limiti dell’attuale sistema

Per accedere allo strumento, i partecipanti devono superare una verifica dell’identità tramite selfie e documento d’identità ufficiale. Una volta creato un profilo, è possibile segnalare contenuti sospetti: YouTube valuta ogni richiesta secondo le proprie linee guida sulla privacy, distinguendo tra materiale protetto (copyright), satirico o politicamente critico, forme di espressione ancora consentite.

La tecnologia, in parte simile al sistema Content ID, non rimuove automaticamente i video: agisce su segnalazione e senza numeri condivisioni sulle rimozioni finora. Amjad Hanif, Vice President of Creator Products, ha spiegato che la maggior parte delle segnalazioni dei creatori si è rivelata “fairly benign or additive” al proprio business, ma “che potrebbe non essere il caso con deepfake di funzionari governativi, politici o giornalisti.”

Etichettatura e policy di trasparenza

I video generati con AI vengono etichettati in modi diversi a seconda del soggetto: contenuti su temi sensibili sono preceduti da un avviso visibile, mentre altri video riportano la dicitura nella descrizione.

Hanif ha osservato che la scelta dell’etichettatura dipende dalla pertinenza del contenuto e dalla valutazione soggettiva del rischio, analogamente a quanto avviene per altri formati AI “non materiali”.

Advocacy legislativa e futuro del sistema

YouTube sostiene il disegno di legge federale chiamato NO FAKES Act, che impone alle piattaforme di intervenire prontamente su rappresentazioni AI non autorizzate della voce e dell’immagine delle persone. Con questo impegno, l’azienda si posiziona attivamente nel dibattito normativo sull’uso responsabile dell’AI nella comunicazione pubblica.

Guardando avanti, YouTube prevede di integrare le funzionalità di rilevamento anche su elementi vocali generati artificialmente e su altri aspetti di proprietà intellettuale, aprendosi anche alla possibilità di monetizzare tali contenuti, similmente al modello Content ID.

Questa iniziativa testimonia l’impegno crescente delle piattaforme digitali nel contrastare le minacce poste dai deepfake a livello politico e giornalistico, allo scopo di preservare l’integrità dell’informazione e tutelare i diritti delle figure pubbliche coinvolte.