Instagram, nuove regole per i minori: cosa cambia davvero per gli utenti tra 13 e 18 anni
La piattaforma rafforza i filtri sui contenuti e introduce limiti più severi anche per ricerche, interazioni e risposte dell'intelligenza artificiale
© Ansa
Nuove misure in vigore su Instagram per ridurre l'esposizione a contenuti considerati inappropriati, attraverso un sistema più rigido di classificazione e controllo, dedicato agli utenti tra i 13 e i 18 anni. Il cambiamento riguarda in particolare la gestione dei contenuti visibili, le interazioni tra account e persino le risposte generate dall'intelligenza artificiale. La novità principale è l'estensione a livello globale della classificazione "13+", già sperimentata in alcuni Paesi nei mesi scorsi. Il meccanismo richiama quello utilizzato nel cinema o nei servizi di streaming: i contenuti vengono automaticamente filtrati in base all'età dell'utente.
Contenuti filtrati come nei film e nelle piattaforme streaming
La novità principale è l'estensione a livello globale della classificazione "13+", già sperimentata in alcuni Paesi nei mesi scorsi. Il meccanismo richiama quello utilizzato nel cinema o nei servizi di streaming: i contenuti vengono automaticamente filtrati in base all'età dell'utente. Oltre alle restrizioni già esistenti su immagini esplicite, contenuti per adulti o riferimenti sessuali, entrano in vigore nuove limitazioni. Verranno nascosti o non consigliati post che contengono linguaggio volgare, comportamenti pericolosi, come acrobazie rischiose o situazioni che potrebbero incentivare atteggiamenti dannosi. Tra questi rientrano anche contenuti che mostrano oggetti legati al consumo di sostanze come la marijuana.
Più limiti su ricerche, profili e interazioni
Le modifiche non si fermano al feed. Gli utenti adolescenti avranno accesso più limitato anche alle funzioni di ricerca e scoperta. Alcuni termini e contenuti, legati ad esempio ad alcol o violenza, non saranno più facilmente visualizzabili. Inoltre, i ragazzi non potranno seguire né interagire con account che pubblicano contenuti non adatti alla loro fascia d'età. Questo vale anche al contrario: i profili che diffondono materiale vietato ai minori non potranno entrare in contatto con account adolescenti.
Un aspetto rilevante riguarda anche i rapporti già esistenti: se un giovane segue già un account non conforme, non riceverà più aggiornamenti né potrà commentarne i contenuti. Allo stesso tempo, la piattaforma limiterà la visibilità di questi profili, rendendoli difficili da trovare anche tramite la funzione di ricerca.
Stop alle risposte AI inappropriate
Tra le novità più significative c'è anche l'intervento sull'intelligenza artificiale integrata nella piattaforma. Le risposte automatiche rivolte agli adolescenti saranno sottoposte a filtri più severi, con l'eliminazione di contenuti ritenuti inadatti. Non solo: verranno bloccati o trattati con maggiore cautela anche temi sensibili. Oltre a questioni già monitorate come autolesionismo, disturbi alimentari e suicidio, entrano nel sistema di controllo anche argomenti come violenza e alcol.
Un cambiamento strutturale per la sicurezza online
Con queste nuove regole, Meta Platforms punta a rendere più protetta l'esperienza digitale dei più giovani. L'obiettivo è ridurre i rischi legati all’esposizione precoce a contenuti problematici, rafforzando al tempo stesso il controllo su ciò che viene mostrato, cercato e condiviso.
