Instagram introduce un nuovo strumento di protezione per gli adolescenti che utilizza la piattaforma. La mossa arriva in un momento in cui i social media sono sotto scrutinio crescente da parte di governi e organizzazioni di tutela dell'infanzia, soprattutto in Europa e nel mondo anglofono, riguardo all'impatto psicologico sui giovani utenti. La funzione, che si inserisce nell'ecosistema già esistente del controllo parentale, punta a creare un canale di comunicazione diretto tra la piattaforma e i genitori quando emergono segnali potenzialmente preoccupanti.
Il meccanismo è specifico e calibrato: il sistema invierà una notifica ai genitori ogni volta che il profilo di un minore effettua ricerche ripetute, in un breve arco di tempo, di termini legati a suicidio o autolesionismo. Non si tratta di un monitoraggio continuo dei contenuti visualizzati, ma di un sistema di soglia basato sulla frequenza delle ricerche, progettato per distinguere tra una curiosità isolata e un pattern comportamentale che potrebbe richiedere attenzione. A partire dalla notifica, i genitori avranno la possibilità di accedere a risorse dedicate per affrontare queste tematiche delicate in modo costruttivo con i propri figli.
Il lancio iniziale è previsto dalla prossima settimana per gli utenti che utilizzano già la funzione di supervisione parentale di Instagram negli Stati Uniti, nel Regno Unito, in Australia e in Canada. L'espansione ad altre regioni — inclusa presumibilmente l'Europa continentale e l'Italia — è pianificata per una fase successiva, senza che siano stati comunicati calendari precisi. La funzione di supervisione parentale, prerequisito necessario per ricevere questi avvisi, deve essere attivata esplicitamente dal genitore e accettata dal minore.
Instagram ha chiarito la logica alla base della soglia scelta nel proprio comunicato ufficiale, specificando che il sistema potrebbe generare notifiche anche in assenza di un reale motivo di preoccupazione. Tuttavia, la piattaforma e i consulenti esperti che ha coinvolto ritengono preferibile questo approccio più prudente rispetto al rischio contrario. L'equilibrio tra privacy dell'adolescente e tutela della sua salute mentale rimane una delle tensioni più difficili da gestire per qualsiasi strumento di parental control digitale.
Vale la pena sottolineare che la politica di Instagram in materia non inizia con questo aggiornamento: i risultati di ricerca per termini collegati a suicidio e autolesionismo sono già bloccati per gli utenti minorenni, e i contenuti su questi argomenti non vengono mostrati agli adolescenti secondo le linee guida attualmente in vigore. Il nuovo sistema di avvisi si aggiunge quindi a una serie di salvaguardie già esistenti, agendo come ulteriore livello di protezione lato famiglia anziché lato piattaforma.
Interessante anche la prospettiva futura annunciata da Meta: una funzionalità analoga di allerta parentale è in sviluppo anche per gli strumenti di intelligenza artificiale integrati in Instagram, anche se i dettagli operativi e la data di rilascio non sono stati ancora comunicati e sono attesi nel corso del 2026. Con la diffusione sempre più capillare dei chatbot AI all'interno delle piattaforme social, la questione di come questi strumenti interagiscono con gli utenti vulnerabili — e come i genitori possono essere informati — diventerà uno dei nodi centrali del dibattito sulla sicurezza digitale dei minori nei prossimi anni.