Protezione dei minori online: cosa si muove tra social e regole europee

Abbiamo parlato spesso di parental control, limiti di tempo, filtri e supervisione, ogni volta che una notizia di rilievo lo rendeva opportuno, come parte di un argomento – la tutela dei minori online – che è importante seguire e spiegare nelle sue caratteristiche ed evoluzioni, e che riteniamo faccia parte appieno degli argomenti del nostro blog, dato che il nostro lavoro è offrire connettività alle persone.

Parental control, filtri, software di supervisione sono tutti strumenti utili e che spostano la responsabilità su chi può supervisionare e decidere per i minori: gli adulti responsabili di loro. L’altro peso sulla bilancia sono naturalmente i social network e le loro azioni, che sempre di più hanno iniziato a pensare a come progettare privacy, sicurezza e protezione e a come renderla operativa.

Per noi poi c’è l’Europa, con iniziative come il regolamento Digital Services Act e le sue linee guida che si occupano proprio di indicare come rendere le piattaforme accessibili ai minori garantendo un livello elevato di protezione, proprio in questi giorni corroborato dall’annuncio della nuova app europea per la verifica dell’età dei minori.

Giovani e social tra protezione e autonomia

L’Unione Europea parla in modo esplicito di proteggere e responsabilizzare (protect and empower) i più giovani, alla luce del fatto che il 97% usa internet tutti i giorni e che i social media sono la fonte principale, o l’unica, di informazione, con tutti i benefici ma anche i rischi di chi può avere meno capacità di distinguere i pericoli, anch’essi parte della vita online.

In una recente indagine condotta dalla EU Agency for Fundamental Rights (FRA), i cittadini europei adulti si dicono preoccupati di tre aspetti in particolare:

  • esposizione a contenuti violenti (89%)
  • rischio di sfruttamento (89%)
  • dipendenza da social media (88%)

L’indagine mostra anche una particolare attenzione all’età alla quale potersi iscrivere e usare le piattaforma social, per quanto i risultati cambino a seconda dell’età delle persone intervistate: se adulte, l’età più adatta indicata è tra i 16 e i 18 anni; se più giovani, l’età indicata è tra i 14 o 15 anni.

Questi risultati si aggiungono a quelli dell’indagine Digital Decade Eurobarometer 2025 sull’impatto della trasformazione digitale. Il 73% delle persone intervistate afferma che la digitalizzazione ha semplificato la loro vita quotidiana, ma la preoccupazione per la vita online dei minori è sempre avvertita. 9 persone su 10 sottolineano l’importanza di proteggerli:

  • dall’impatto negativo dei social media sulla salute mentale (89%)
  • dalla pericolosità del cyberbullismo (92%)

Le persone intervistate indicano anche la necessità di garantire sistemi di limitazione dei contenuti non adatti ai minori attraverso sistemi di verifica dell’età.

Come si muovono i social media in tema di accesso alla piattaforma e minori? L’ultima novità di Instagram, ma non solo

In questo contesto si inserisce la notizia più recente che riguarda Instagram.

Ad aprile 2026, Meta (la società a cui fa capo Instagram) ha annunciato un aggiornamento: i profili dei minori, dice, avranno impostazioni predefinite più restrittive tra cui l’impossibilità di seguire e interagire con account non adatti ai teenager (individuati da Instagram); ricerca limitata su argomenti sensibili; interazione limitata con l’intelligenza artificiale per evitare che questa dia risposte non adatte a un pubblico di giovani.

Instagram ha quindi creato un’impostazione di partenza che usa criteri più restrittivi, cioè vincoli decisi dalla piattaforma.

Instagram ha poi annunciato l’introduzione futura di un livello ancora più severo chiamato “Limited Content” (contenuti limitati), pensato per permettere agli adulti di filtrare ulteriormente ciò che un adolescente può vedere e fare, compresi scrivere e ricevere commenti.

Instagram non è il solo social a muoversi in questo senso. Anche YouTube, ad esempio, a luglio 2025 ha annunciato l’arrivo di un sistema automatico, con l’uso dell’intelligenza artificiale (solo per gli Stati Uniti), per determinare se un ragazzo o una ragazza abbia o meno 18 anni e applicare filtri sui contenuti se il sistema dovesse stabilire che la persona in questione non ha ancora 18 anni. Il sistema, per l’identificazione, lavorerebbe analizzando i tipi di video cercati sulla piattaforma, le categorie di video visti e la longevità dell’account.

A gennaio 2026, YouTube ha poi annunciato nuovi controlli a disposizione dei familiari, tra cui la possibilità di impostare limiti di tempo o di azzerare il tempo a disposizione per la visione degli Shorts (i video brevi in formato verticale).

La questione della verifica dell’età e della privacy, e cosa pensa di fare l’Europa

Naturalmente, per rendere efficaci queste protezioni, il nodo è capire se la persona è minorenne. Dal punto di vista della sicurezza, la possibilità di determinare con più o meno certezza l’età di una persona è volta a evitare che chi si iscrive inserisca una qualsiasi data di nascita, ma dal punto di vista dei diritti e della privacy la questione è più complessa, almeno nell’Unione europea, perché il metodo usato deve rispettare i principi del GDPR.

Ne ha parlato anche la Commissione europea per la protezione dei dati (EDPB) a gennaio 2026, in occasione del Data Protection Day, sottolineando la necessità di individuare una soluzione pensata per dimostrare l’idoneità rispetto a una soglia d’età senza raccolta di dati: riuscendoci, si allontanerebbe il rischio di trasformare la protezione in una forma di sorveglianza dai contorni difficili da definire.

L’ultima novità in questo senso è arrivata proprio pochi giorni fa, il 15 aprile 2026, con il comunicato della presidente Ursula von der Leyen che ha annunciato un passo ulteriore: una app europea per la verifica dell’età, pensata come soluzione tecnica comune per tutti gli Stati membri

L’obiettivo è triplice: riuscire a determinare l’età con un sistema condiviso tra gli Stati membri, e quindi non lasciato all’iniziativa singola; evitare di lasciare alle piattaforme il compito di stabilire se una persona che le usa sia minorenne oppure no; rispettare la privacy, evitando di acquisire dati personali.

Von der Leyen ha anticipato che l’app per dimostrare l’età al momento dell’ingresso su una piattaforma è pronta per il rilascio: chi la userà potrà inserirvi il documento d’identità, senza però condividere le sue informazioni personali. In termini semplici, la piattaforma saprà solo se la persona supera o meno i 18 anni: anche l’età esatta non verrà condivisa.

Tra gli Stati indicati tra i primi già pronti a introdurre l’uso dell’app c’è anche l’Italia, che potrebbe integrarla nella app Io già in uso. Ne parleremo ancora quando ci saranno più informazioni sul funzionamento e l’introduzione dell’app.

Insomma: problema risolto? Tra le iniziative delle piattaforme e l’intervento dell’Unione europea, è chiaro che la tutela dei minori online resta in equilibrio tra regole e strumenti, una questione più che complessa e che non può ignorare il valore di un terzo fattore, che è, come sempre, la presenza adulta, sempre indispensabile per accompagnare i più giovani nell’uso quotidiano della rete, senza delegare troppo alla tecnologia e alle piattaforme.