Instagram ha annunciato l'estensione globale delle sue restrizioni sui contenuti per gli account di adolescenti, una misura precedentemente limitata a Paesi come Australia, Canada, Regno Unito e Stati Uniti. A partire dal 9 aprile 2026, queste nuove linee guida, ispirate ai criteri delle classificazioni cinematografiche per maggiori di 13 anni, mirano a limitare l'esposizione dei giovani a temi sensibili. L'obiettivo è ridurre la visione di contenuti che presentano violenza estrema, nudità, uso di droghe o linguaggio forte, regole già in vigore a livello nazionale da ottobre scorso.
Contenuti limitati e nuove funzionalità di protezione
In precedenza, Meta aveva già implementato un sistema per mostrare meno contenuti con temi potenzialmente delicati, come linguaggio volgare, acrobazie rischiose e riferimenti a droghe, evitando di raccomandare o nascondere tali post agli utenti adolescenti. Queste logiche sono ora applicate a livello internazionale per gli under-18. Inoltre, è stata introdotta una nuova impostazione denominata “Limited Content”. Questa opzione offre filtri ancora più stringenti, impedendo agli adolescenti di visualizzare, lasciare o ricevere commenti sotto i post e bloccando parole chiave di ricerca sensibili, rafforzando così la sicurezza online.
Le ragioni dietro l'espansione delle restrizioni
L'iniziativa di estendere questi filtri a livello globale arriva in un momento cruciale. Meta è stata infatti ritenuta responsabile da tribunali del New Mexico e di Los Angeles per aver arrecato danno agli adolescenti attraverso le sue piattaforme. A ciò si aggiunge una diffida legale inviata dalla Motion Picture Association (MPA), che aveva chiesto a Meta di cessare l'uso del termine “PG-13” per descrivere le proprie restrizioni. In risposta, Meta ha riconosciuto le differenze tra film e social media, precisando che le nuove limitazioni riflettono l'equivalente Instagram di una classificazione filmica ritenuta appropriata per gli adolescenti, sottolineando l'impegno nella tutela dei minori.
Misure aggiuntive per la sicurezza dei minori
Parallelamente all'espansione delle restrizioni sui contenuti, Meta ha recentemente introdotto ulteriori strumenti volti a migliorare la protezione dei minori. Tra questi, spiccano le notifiche per i genitori quando gli adolescenti cercano contenuti riguardanti l'autolesionismo, l'implementazione di controlli parentali per le esperienze di intelligenza artificiale e la sospensione dell'accesso dei giovani ai personaggi AI, in attesa dello sviluppo di una versione migliorata. Tuttavia, nei mesi scorsi, sono emerse alcune pratiche che hanno evidenziato ritardi nell'implementazione di misure come la sfocatura automatica di immagini esplicite nei messaggi diretti, nonostante la problematica fosse nota da tempo.
Impatto e prospettive future
L'estensione internazionale dei contenuti limitati e dei filtri 13+ rappresenta un'evoluzione significativa nell'impegno di Meta per rispondere alle crescenti pressioni legali e sociali in materia di sicurezza online per adolescenti. Il costante equilibrio tra la crescita della piattaforma e la salvaguardia dei minori rimane una questione centrale. L'adozione di filtri più selettivi e il rafforzamento della supervisione parentale indicano una maggiore assunzione di responsabilità. Nonostante ciò, la sorveglianza automatizzata e la definizione di contenuti “adatti” continuano a essere oggetto di scrutinio critico da parte di esperti e legislatori. Nel panorama globale delle normative per la tutela dei minori sui social, la strategia di Meta costituisce un passo importante ma non definitivo.
L'efficacia concreta delle restrizioni, la trasparenza nei processi di moderazione e la capacità di rispondere alle critiche determineranno se questo approccio potrà diventare un modello di riferimento nel settore.