Il punto non è più soltanto se i social facciano bene o male ai minori. Il punto è quale architettura normativa e culturale sia oggi più ragionevole: vietare l’accesso ai ragazzi oppure intervenire sulle imprese che progettano ambienti digitali capaci di catturare attenzione, trattenere utenti e massimizzare engagement?
Negli ultimi mesi il mondo si è mosso in modo rapido ma disomogeneo. L’Australia è diventata il primo Paese a far entrare in vigore un divieto nazionale per gli under 16, imponendo alle piattaforme l’obbligo di bloccarne l’accesso e prevedendo sanzioni molto elevate per le aziende che non rispettano la legge. Reuters ha descritto la misura come una delle più dure al mondo, con multe fino a 49,5 milioni di dollari australiani (vedi anche un mio articolo su Tecnica della scuola) In Europa, invece, si sta affermando una linea più articolata. Il Parlamento europeo, nella risoluzione del 26 novembre 2025 sulla protezione dei minori online, ha chiesto un’età minima di 16 anni per l’accesso ai social nell’Unione, ma soprattutto ha chiesto di vietare le pratiche più dannose: algoritmi di raccomandazione basati sull’engagement per i minori, design che crea dipendenza, meccanismi simili al gioco d’azzardo e strumenti generativi usati per deepfake o nudity apps. (Parlamento Europeo)
Una frammentazione mondiale di modelli di limitazioni
Il quadro globale, peraltro, non è affatto uniforme. Una recente ricognizione giornalistica di Paolo Ottolina per Login-Corriere della sera ha mostrato una geografia molto frammentata: Australia, Malesia e Indonesia hanno già introdotto divieti o forti limitazioni; Francia, Portogallo, Regno Unito, Danimarca e Spagna sono in fasi legislative avanzate; Norvegia, Austria e Germania si muovono in forme diverse; negli Stati Uniti non esiste una legge federale unitaria, ma alcuni Stati hanno già adottato restrizioni. Il dato comparato suggerisce che non siamo davanti a un consenso stabile su una soluzione unica, ma a una molteplicità di modelli che oscillano fra proibizione, consenso genitoriale, responsabilità delle piattaforme e limitazioni selettive degli algoritmi.
In Italia il tema è entrato nel circuito politico, ma senza ancora approdare a un esito normativo. Al Senato è in esame – ma fermo nell’iter parlamentare – il disegno di legge n. 1136, “Disposizioni per la tutela dei minori nella dimensione digitale” (Senato della Repubblica). Anche qui, dunque, il problema non è l’assenza di consapevolezza, ma il passaggio dalla diagnosi alla decisione.
Il rischio della sorveglianza permanente
E tuttavia ridurre la questione al solo “divieto sì/divieto no” rischia di produrre una semplificazione fuorviante. Come ha osservato Riccardo Luna in un articolo del Corriere della Sera del 29 marzo 2026, la protezione dei minori online è una “sfida lunga trent’anni”: da decenni si tenta di governare l’accesso dei più giovani alla rete, ma si continua a urtare contro due ostacoli strutturali, l’inefficacia pratica dei filtri e il costo democratico dei sistemi di controllo troppo invasivi.
Il nodo tecnico, infatti, è la verifica dell’età. Senza un sistema affidabile di age assurance, qualsiasi limite anagrafico rischia di essere eluso con facilità. Ma se il controllo dell’età richiede la raccolta sistematica di dati biometrici o documentali di tutti gli utenti, adulti compresi, il rimedio può diventare peggiore del male: una rete costruita attorno alla sorveglianza permanente. Reuters ha mostrato come proprio su questo punto si stiano concentrando i governi che guardano al modello australiano e alle sue difficoltà applicative. La questione non è solo tecnica, ma costituzionale: quanta privacy siamo disposti a sacrificare per ottenere un controllo effettivo dell’età? E soprattutto: un controllo più forte produce davvero più tutela, o spinge i ragazzi verso VPN, account intestati ad adulti, reti criptate e spazi digitali ancora meno trasparenti?
Kristina Kallas: di cosa sono colpevoli gli adolescenti?
Qui entra in gioco l’argomento più convincente contro una lettura puramente proibizionista, ed è l’argomento formulato con chiarezza dalla ministra estone dell’Istruzione Kristina Kallas. In un’intervista a Wired Italia del 17 febbraio 2026, Kallas afferma che, invece di fare leggi contro i sedicenni, bisognerebbe fare leggi contro le aziende. La sua domanda è semplice e radicale: “Di cosa sono colpevoli?”. E aggiunge un elemento autobiografico decisivo: essendo cresciuta nel comunismo sovietico, da adolescente ha imparato che i divieti educano soprattutto ad aggirare il sistema; in sostanza, dice, in quel contesto ha imparato “come ingannare il sistema”. (Wired Italia) La sua posizione non è lassista. Al contrario, è una posizione regolativa esigente: non deresponsabilizzare i ragazzi, ma spostare il baricentro normativo verso chi progetta, monetizza e governa gli ambienti digitali.
Regolamentare le aziende, educare gli studenti
Questa linea trova oggi un riscontro forte anche nelle aule giudiziarie statunitensi. Il 25 marzo 2026 una giuria di Los Angeles ha ritenuto Meta e Google responsabili in un caso di danno alla salute mentale collegato all’uso di Instagram e YouTube da parte di una giovane utente. Reuters riferisce che la giuria ha giudicato le due imprese negligenti nella progettazione o gestione delle rispettive piattaforme, ritenendo tali condotte un fattore sostanziale nel danno sofferto dalla ricorrente, e ha disposto un risarcimento di 6 milioni di dollari. Il dato più importante, però, non è economico: è giuridico e culturale. La controversia non riguarda soltanto contenuti dannosi veicolati dagli utenti, ma il design stesso delle piattaforme, accusato di essere strutturalmente orientato alla dipendenza, ad esempio creando funzionalità come infinite scroll, autoplay e altre soluzioni di prodotto pensate per massimizzare permanenza e compulsività d’uso.
Già nel 2023 numerosi Stati americani, inclusa la California, avevano citato Meta sostenendo che le sue piattaforme danneggiassero la salute mentale dei giovani e che l’azienda avesse consapevolmente minimizzato tali rischi. Lo stesso schema è stato poi esteso ad altre piattaforme, come TikTok, accusate da procuratori generali statunitensi di essere progettate per promuovere un uso eccessivo, compulsivo e addictive da parte dei minori. In altre parole, la discussione internazionale sta progressivamente spostandosi dal comportamento dei ragazzi al comportamento delle imprese. Non è una distinzione secondaria. Cambiare il focus significa riconoscere che gli adolescenti non incontrano semplicemente “strumenti neutri”, ma entrano in ambienti costruiti per sfruttare vulnerabilità cognitive, meccanismi di ricompensa intermittente, pressione sociale e persuasione algoritmica.
Da questo punto di vista, la risoluzione del Parlamento Europeo è particolarmente interessante, perché unisce le due dimensioni che spesso il dibattito pubblico tiene separate. Da un lato, riconosce la legittimità di discutere una soglia minima di accesso ai social. Dall’altro, individua come bersaglio normativo prioritario il design delle piattaforme: raccomandazioni basate sull’engagement, pratiche addictive, interfacce manipolative, monetizzazione dell’attenzione minorile. È un passaggio cruciale: la tutela dei minori non coincide necessariamente con il loro allontanamento dal digitale; può significare, piuttosto, obbligare le piattaforme a non operare contro il benessere e lo sviluppo dei minori.
Per un’alfabetizzazione critica
Resta, naturalmente, un secondo pilastro senza il quale nessuna regolazione basta: la formazione degli adolescenti. Anche se si decidesse di introdurre soglie d’età, la questione educativa rimarrebbe centrale. I ragazzi hanno bisogno di alfabetizzazione critica, di competenze di autoregolazione, di comprensione dei meccanismi economici e psicologici delle piattaforme, di educazione all’attenzione, alla reputazione, al conflitto online, alla verifica delle informazioni. Il problema non è solo quando si entra nei social, ma come si entra, con quale accompagnamento, con quale capacità di lettura delle dinamiche di dipendenza, pressione del gruppo, polarizzazione e persuasione algoritmica. Su questo piano, scuola e famiglia non possono essere sostituite né dalla legge né dalla tecnologia.
La conclusione, allora, non può essere semplicemente permissiva né semplicemente proibitiva. I dati comparati e le evidenze più recenti suggeriscono una tesi più equilibrata ma anche più esigente: i Paesi devono certamente affrontare il tema dell’età di accesso, ma dovrebbero soprattutto intervenire sulle aziende, imponendo obblighi rigorosi di progettazione responsabile, trasparenza algoritmica, limitazione delle pratiche addictive, protezione rafforzata dei minori e sanzioni efficaci. È questa, in sostanza, la linea sostenuta da Kristina Kallas, ed è la linea che a mio parere appare più convincente anche alla luce delle decisioni giudiziarie statunitensi e delle discussioni europee. Colpire i ragazzi è più facile; costringere le piattaforme a cambiare è più giusto. E, probabilmente, anche più efficace.
Bibliografia-sitografia
European Parliament. (2025, 26 novembre). Children should be at least 16 to access social media, say MEPs.
Link: https://www.europarl.europa.eu/news/en/press-room/20251120IPR31496/children-should-be-at-least-16-to-access-social-media-say-meps
Kallas, Kristina [intervista a cura di Luca Zorloni]. (2026, 17 febbraio). In Estonia ChatGPT arriva in classe. La ministra dell’Istruzione Kallas ci spiega perché, anziché vietare l’AI, è meglio insegnare agli studenti a usarla. Wired Italia.
Link: https://www.wired.it/article/estonia-chatgpt-scuola-ministra-kallas-istruzione-intervista/
Luna, Riccardo. (2026, 29 marzo). Le strategie. Una sfida lunga 30 anni per proteggere i ragazzi. In Austria l’ultima stretta. Corriere della Sera.
Ottolina, Paolo. (2026, 28 marzo). Il mondo vieta i social agli adolescenti: la mappa dei divieti (e la situazione in Italia). Login – Corriere della Sera.
Reuters. (2025, 9 dicembre). Australia social media ban takes effect in world first.
Link: https://www.reuters.com/legal/litigation/australia-social-media-ban-takes-effect-world-first-2025-12-09/
Reuters. (2026, 25 marzo). What did jury decide in social media case against Meta and Google?
Link: https://www.reuters.com/legal/litigation/what-did-jury-decide-social-media-case-against-meta-google-2026-03-25/
Reuters. (2026, 25 marzo). Meta, Google lose US case over social media harm to kids.
Link: https://www.reuters.com/legal/litigation/jury-reaches-verdict-meta-google-trial-social-media-addiction-2026-03-25/
Reuters. (2026, 26 marzo). US jury verdicts against Meta, Google tee up fight over tech liability shield.
Link: https://www.reuters.com/sustainability/boards-policy-regulation/us-jury-verdicts-against-meta-google-tee-up-fight-over-tech-liability-shield-2026-03-26/
Senato della Repubblica. Disegno di legge n. 1136 – Disposizioni per la tutela dei minori nella dimensione digitale.
Link: https://www.senato.it/leggi-e-documenti/disegni-di-legge/scheda-ddl?did=58233
Tosolini, Aluisi. (2025, 10 dicembre). Divieto accesso ai social per i minori di 16: in Australia in vigore la legislazione. Primo caso al mondo. Modello per altri Paesi? Tecnica della Scuola.
Link: https://www.tecnicadellascuola.it/divieto-accesso-ai-social-per-i-minori-di-16-in-australia-in-vigore-la-legislazione-primo-caso-al-mondo-modello-per-altri-paesi