I controlli sull’età non sono più una semplice funzione di sicurezza. Nel 2026 stanno diventando una variabile che incide sulla crescita: determinano quali fasce di pubblico un social può servire in modo legittimo, quali funzioni restano disponibili per gli account di minorenni e quanto gli inserzionisti possano puntare su un targeting “pulito” senza rischi reputazionali. I regolatori chiedono misure più solide e i social rispondono con una combinazione di stima dell’età, percorsi con documenti e impostazioni più restrittive per i minori. In pratica, se i tuoi contenuti o il tuo media plan dipendono da pubblico giovane, devi capire come viene stimata l’età, dove avvengono gli errori e che effetto produce su raccomandazioni e risultati delle campagne.
Nell’UE, il Digital Services Act (DSA) ha trasformato la tutela dei minori in obblighi operativi: valutazioni del rischio, misure di mitigazione e controlli dimostrabili per i servizi che possono essere usati anche dai minorenni. La Commissione europea ha pubblicato linee guida dedicate alla protezione dei minori e ha presentato anche un’app prototipo per la verifica dell’età, pensata per ridurre l’esposizione dei dati personali. Questo doppio binario è importante perché sposta il settore dal semplice “inserisci la data di nascita” verso sistemi più verificabili e più facili da giustificare davanti alle autorità.
In parallelo, le iniziative a livello nazionale stanno creando pressione che travalica i confini. In Australia è entrato in vigore il divieto di accesso ai social per gli under 16 il 10 dicembre 2025, con sanzioni molto elevate in caso di mancato rispetto. Le prime notizie di applicazione hanno citato grandi volumi di account bloccati o rimossi, segnalando quanto rapidamente i social possano passare da controlli “morbidi” a campagne di pulizia aggressive quando cambiano le regole e le multe diventano concrete.
Anche nel Regno Unito le aspettative si stanno irrigidendo. Nel quadro dell’Online Safety Act, l’“age assurance” è trattata come uno strumento pratico per impedire ai minori l’accesso a contenuti ed esperienze considerate dannose. Il lavoro di Ofcom e l’attenzione politica su questi temi rendono probabile che un numero crescente di servizi venga spinto ad adottare controlli più forti, non solo quelli legati a contenuti per adulti. Per creator e brand significa che le scelte non saranno guidate solo dal prodotto, ma anche dalla compliance.
La verifica dell’età cambia dimensione e composizione del pubblico raggiungibile. Quando un social rimuove o limita account di minorenni, una parte delle audience “giovani” può sparire in pochi giorni. Anche se gli utenti reali restano, gli account possono finire con impostazioni più rigide, riducendo condivisioni e scoperta. Questo spesso si traduce in cali improvvisi della reach organica, soprattutto nei formati che storicamente attirano i più giovani.
Anche il targeting diventa meno preciso. Se un servizio non può confermare in modo affidabile che un utente è maggiorenne, tende ad applicare politiche pubblicitarie più prudenti: meno categorie sensibili, meno targeting basato sul comportamento e più dipendenza da segnali contestuali. Le campagne che prima vivevano di segmenti d’età dettagliati (per esempio 16–17 vs 18–24) possono essere spinte verso gruppi più ampi oppure verso posizionamenti contestuali e partnership con creator.
Infine, la misurazione può diventare più “rumorosa”. Quando l’età è trattata come incerta, alcuni social limitano la condivisione dei dati, riducono la visibilità di certe metriche o attenuano alcune azioni di engagement per i minori. È realistico aspettarsi più scostamenti tra le ipotesi dei tuoi report e ciò che il social è disposto a confermare.
Nel 2026 la maggior parte dei social usa segnali a più livelli. La data di nascita dichiarata resta un punto di partenza, ma viene sempre più spesso affiancata da pattern comportamentali (orari d’uso, velocità di interazione, cambi di dispositivo), segnali di rete (ad esempio dispositivi condivisi in famiglia) e segnali legati ai contenuti (cosa si guarda, cosa si pubblica, cosa si cerca, come si commenta). In Europa, TikTok ha descritto un approccio di questo tipo: analisi delle informazioni del profilo, dei video pubblicati e di segnali di comportamento per stimare se un account possa essere di un minorenne, con successiva revisione da parte di moderatori specializzati.
Per azioni a rischio più elevato, i social aggiungono controlli più “duri”. Possono includere verifica tramite documento d’identità, controlli basati su carta di pagamento (non è una prova perfetta, ma a volte viene usata come frizione), conferma del numero di telefono o controlli tramite operatori, oltre a strumenti di stima dell’età forniti da terze parti. La stima dell’età dal volto compare spesso nei flussi di ricorso: l’utente contesta la classificazione come minorenne e il social propone un controllo aggiuntivo, oppure un passaggio documentale, per decidere l’accesso.
Il punto più fragile resta l’accuratezza, non la volontà. I segnali comportamentali e di contenuto possono classificare come minorenne un adulto che sembra giovane, usa dispositivi condivisi o consuma contenuti tipici di un pubblico teen. Al contrario, alcuni minorenni imitano comportamenti “da adulti”. Per questo, processi di ricorso, revisione umana e messaggi chiari verso l’utente stanno diventando parti essenziali del sistema, non dettagli secondari.
I falsi positivi hanno un impatto commerciale reale. Se un creator di 19 anni viene trattato erroneamente come minorenne, può ritrovarsi con funzioni limitate, una distribuzione diversa dei contenuti e maggiore diffidenza da parte dei brand. Il creator lo percepisce come “la reach è crollata”, ma la causa può essere una classificazione sbagliata, non un cambio di qualità editoriale. Serve quindi una procedura interna per identificarlo e intervenire.
Le preoccupazioni legate ai bias sono sotto i riflettori. La stima dell’età dal volto può funzionare in modo diverso a seconda dei dati di addestramento, dell’illuminazione e della qualità della camera; inoltre può diventare instabile con filtri o contenuti molto stilizzati. Anche quando è usata solo nei ricorsi, apre discussioni su proporzionalità e minimizzazione dei dati, soprattutto nei paesi con regole privacy più stringenti.
L’attrito legato alla privacy decide l’adozione. Se un social chiede documenti troppo presto, aumenta l’abbandono; se si affida troppo all’inferenza, i regolatori possono considerarlo inefficace. Nel 2026, il compromesso più probabile è una “assurance progressiva”: frizione bassa per la navigazione generale e controlli più forti per funzioni a rischio (messaggi con sconosciuti, live, monetizzazione, contenuti per adulti o raccomandazioni sensibili).

Per gli account di minorenni, il cambiamento pratico è un prodotto più ristretto. Le regole sulla messaggistica si irrigidiscono, soprattutto sul contatto adulto-minore; alcune funzioni live possono essere limitate o richiedere passaggi aggiuntivi; e la scoperta viene gestita in modo più conservativo. Nei mercati con requisiti più forti, i social hanno un incentivo a ridurre l’esposizione accidentale a contenuti dannosi: questo spesso significa feed predefiniti più prudenziali e modelli di raccomandazione più “protettivi” per i minori.
L’approccio australiano mostra l’estremo: l’obiettivo non è solo ridurre i rischi, ma impedire agli under 16 di avere account su servizi principali, con applicazione su larga scala riportata poco dopo l’entrata in vigore del divieto. Anche se il tuo mercato non è l’Australia, le grandi aziende tendono a standardizzare strumenti e procedure, quindi tecniche e criteri possono essere estesi ad altre aree.
Per i brand, questo cambia due cose: quali contenuti possono essere pubblicati con serenità e come distribuirli. Se lavori con cultura giovanile, potrebbe essere necessario spostarsi dal “targeting preciso per età” verso partnership con creator, allineamento contestuale e posizionamenti più sicuri. Serve anche una policy interna più chiara sui contenuti adatti a pubblici misti, perché lo stesso post può essere distribuito in modo diverso a maggiorenni e minorenni.
Parti dall’igiene dei contenuti per ridurre il rischio di classificazioni errate. Evita post che sembrano teaser di contenuti per adulti se il tuo profilo è orientato ai giovani e fai attenzione a caption e hashtag che possono far scattare filtri “mature”. Mantieni claim e call-to-action lineari e riduci le ambiguità che potrebbero spostare i tuoi contenuti in categorie soggette a limitazioni.
Costruisci una strategia di distribuzione che non dipenda da un unico segnale legato al pubblico teen. Usa formati più resilienti alle impostazioni restrittive (clip educative brevi, intrattenimento “safe”, serie guidate dalla community) e diversifica tra canali dove il tuo pubblico è realmente presente. Tratta la reach giovanile come un risultato di pertinenza e sicurezza, non come qualcosa che si sblocca con un’opzione di targeting.
Prepara una risposta operativa ai casi di “strozzatura” dovuta all’età. Monitora cali improvvisi per area geografica e segmenti demografici; registra cosa è cambiato (orari, formati, temi); e mantieni una procedura pronta per assistenza e ricorsi quando disponibili. Se gestisci creator, assicurati che possano dimostrare rapidamente la legittimità con il percorso meno invasivo supportato dal social, perché i ritardi possono costare slancio editoriale.