Prosegue la Class Action per la tutela dei minori sui social: Meta (Facebook, Instagram) e TikTok si sono costituite confidando in questioni procedurali per rinviare la discussione

La class action instaurata a Milano dallo Studio A&C su mandato del Movimento Italiano Genitori (MOIGE) e di alcune famiglie i cui figli hanno patito gravi danni a causa delle pratiche dei social di Meta e TikTok – e/o che continuano a subire i seri rischi di pregiudizio legati al funzionamento delle piattaforme – prosegue il suo iter procedurale, muovendo principalmente dalla constatazione che la legge vigente è clamorosamente violata dalle aziende responsabili dei social network.

Le aziende dei gruppi Meta e TikTok si sono costituite nella causa milanese negando l’evidenza e formulando numerosissime eccezioni formali, ottenendo un rinvio della prima udienza di discussione, che è ora fissata per al prossimo 14 maggio.

Nel merito, le società resistenti hanno tentato di dimostrare il presunto rispetto delle norme vigenti, soprattutto attraverso riferimenti a documenti di policy interni ed astratti, scritti dalle aziende stesse o da loro consulenti. Inoltre, come si può notare anche guardando questo breve video che riassume l’azione, pubblicato qui sul nostro sito, le società tentano di affermare di non poter essere ritenute responsabili per le proprie consapevoli scelte imprenditoriali, puntando inoltre il dito su altri soggetti – a partire dai genitori dei minori esposti a rischi e danni sulle piattaforme.

Le difese delle piattaforme sono inconsistenti e non potranno bloccare quello che è un vero tsunami che da tutto il mondo si sta abbattendo su di loro, ora che sono evidenti i disastrosi danni alla salute fisica a mentale che bambini, adolescenti ma anche adulti subiscono dalla frequentazione dei social.

E non mancano le condanne in sede giudiziaria, come quella del Tribunale di Berlino che approfondiamo più avanti (lett. B), o le avvisaglie di ben più pesanti sanzioni da parte della Commissione UE (lett. C).

Ma è tutta la complessiva mobilitazione a livello mondiale che fa impressione, con vari Paesi che osservando i gravissimi rischi e danni allo sviluppo dei minori hanno deciso di approvare ulteriori norme nazionali che proibiscano espressamente l’accesso dei pre-adolescenti ai social. Così, la Spagna di Sanchez (riportiamo il suo recente intervento) ha annunciato una nuova legge che vieterà esplicitamente l’accesso agli under 16, nonché la previsione di una responsabilità legale in capo ai CEO delle big tech per i reati commessi sui social network, descritti come spazi di “dipendenza, abuso, pornografia, manipolazione e violenza“. Analogamente, la Francia sta emanando anch’essa una legge ad hoc che introduce un ulteriore divieto di accesso prima dei 15 anni. Iniziative analoghe si segnalano anche in Grecia, Portogallo, Danimarca ed Austria.

In Australia, la legge su questo tema è entrata in vigore da alcuni mesi ormai.

Un’altra notizia di rilievo sul tema è costituita dalle novità provenienti da Bruxelles (che approfondiamo alla lett. C) relative al procedimento che la Commissione UE ha instaurato contro TikTok già due anni fa, che sta verificando la concretezza dei rischi per i minori collegati alle impostazioni ed al funzionamento dei social.

Analogamente a quanto si osserva nell’ambito di tale azione ai sensi del Regolamento UE Digital Services Act (DSA) anche l’azione di classe instaurata a Milano dallo Studio A&C vuole intervenire sulle impostazioni della piattaforma, di per sé dannose per i giovani utenti. L’azione italiana, in favore degli utenti attivi nella nostra penisola, è volta ad un intervento urgente del Giudice italiano per porre rimedio alla situazione attuale di grave pericolo per i minori, confermata nei giorni scorsi dalle conclusioni preliminari della Commissione.

Nel frattempo, negli Stati Uniti, stanno muovendo i primi passi le numerosissime cause instaurate contro i danni biologici causati ai minori dai social network (dalla dipendenza dalle piattaforme, fino al suicidio), ivi inclusi Meta e TikTok. Le azioni, promosse dai genitori di minori che hanno perso la vita o hanno subito gravi danni biologici, ma anche da ben 40 procuratori degli Stati USA e da distretti scolastici, si fondano anche su copiosa documentazione interna dei due gruppi che attesta la consapevolezza della dipendenza che le piattaforme ingenerano nei minori, a partire dai celebri Facebook Files – documenti allegati peraltro anche alla class action instaurata dallo Studio A&C a Milano.

Il Tribunale di Berlino condanna TikTok per mancata verifica dell’età dei minori:

Il Tribunale regionale di Berlino II, pronunciatosi su una causa proposta dall’Associazione federale dei consumatori (VZBV – Verbraucherzentrale Bundesverband)[1], ha ordinato a TikTok di non utilizzare più i dati personali degli utenti minori di età compresa tra i 13 e i 16 anni non ancora compiuti per finalità di marketing o pubblicità personalizzata.

In Germania, come ovunque in UE per la prassi adottata da tutte le piattaforme, la verifica dell’età dell’utente che si iscrive (in questo caso) a TikTok si basa esclusivamente sulle sole dichiarazioni dall’utente stesso durante il processo di registrazione.

Secondo i Giudici tedeschi tale prassi, con la semplice richiesta della data di nascita al momento della registrazione, costituisce peraltro un chiaro incentivo per i giovani a dichiararsi più grandi per aggirare i limiti di età e le funzioni limitate. Si tratta di una conclusione intuitiva ed in linea con la sostanza della normativa vigente, che è destinata ad essere applicata in tutta Europa, visto il chiaro dettato legislativo che impone invece alle piattaforme di svolgere tutte le verifiche possibili in base all’esperienza ed alla tecnologia disponibile.

Il Tribunale ha ritenuto dunque questa pratica dell’azienda, che favorisce l’accesso indiscriminato di minori nella piattaforma, insufficiente a garantire che i dati personali dei minori di età inferiore ai 16 anni non vengano trattati a fini pubblicitari senza il consenso dei genitori. La vendita di spazi pubblicitari basati sullo studio minuzioso dell’attività degli utenti e delle loro caratteristiche (a partire della loro fascia di età, peraltro) rappresenta infatti la linfa vitale delle piattaforme social, garantendo gran parte dei loro introiti.

Risulta evidente che il minore sotto età che acceda mentendo sulla propria data di nascita fruirà di un’esperienza diversa da quella per lui adeguata, con tutti i rischi che ne conseguono: proprio per evitare tale rischio il Tribunale berlinese ha vietato a TikTok di trattare i dati personali degli utenti registrati di questa fascia d’età senza il consenso dei titolari della responsabilità genitoriale per l’invio di messaggi di marketing e la visualizzazione di pubblicità personalizzate, prevedendo una sanzione fino a 250.000 euro in caso di violazione di tale divieto.

Anche in Italia, per accedere a TikTok (come anche a Instagram e Facebook) basta indicare una data di nascita corrispondente ad almeno 13 anni compiuti.

Questo è contrario alle leggi in vigore nell’Unione Europea e nei suoi Stati membri, come la Germania e l’Italia – a partire dal GDPR (Regolamento generale sulla protezione dei dati) e dai codici privacy nazionali. Il primo prevede all’art. 8 un’età minima di 16 anni per poter accedere ai servizi di social network, consentendo ai legislatori nazionali di fissare un limite minore, non inferiore ai 13 anni, mentre il codice privacy italiano prevede invece il limite minimo di 14 anni, 13 qualora sia presente anche il consenso di entrambi i genitori del minore.

Le conclusioni preliminari della Commissione UE nel quadro del procedimento ai sensi del DSA: design e sistemi additivi, insufficienza della valutazione del rischio

Il 6 febbraio 2026 la Commissione ha divulgato il contenuto delle proprie conclusioni preliminari, nel quadro del procedimento instaurato nel febbraio 2024 nei confronti di TikTok ai sensi del Digital Services Act (Reg. UE 2022/2265), avente ad oggetto la tutela dei minori, la trasparenza della pubblicità, l’accesso ai dati in favore dei ricercatori e la gestione del rischio con riferimento al design additivo ed ai contenuti dannosi.

Secondo la Commissione, TikTok ha violato le norme UE per il suo design che crea dipendenza, il quale include funzionalità come lo scorrimento infinito, la riproduzione automatica dei contenuti, le c.d. notifiche push e il suo sistema di raccomandazione altamente personalizzato.

Il comunicato stampa della Commissione pone l’accento sull’inadeguatezza della valutazione del rischio compiuta dall’azienda sui propri sistemi, evocando altresì i risultati della ricerca scientifica, secondo cui il funzionamento della piattaforma (che rischia di “mettere il cervello in modalità pilota automatico”) può indurre comportamenti compulsivi e a ridurre l’autocontrollo.

TikTok avrebbe inoltre ignorato importanti indicatori dell’uso compulsivo dell’app, come il tempo speso sull’app dai minori anche durante la notte, l’inefficacia degli strumenti di gestione del tempo e di controllo parentale.

La Commissione ritiene che TikTok debba modificare la struttura di base del suo servizio, attraverso la disabilitazione delle principali caratteristiche che creano dipendenza, a partire dallo scorrimento infinito dei contenuti (infinite scrolling), ponendo in essere effettive modalità di interruzione dell’uso dell’app e adattando il suo sistema di raccomandazione.

Annotiamo che l’azione inibitoria di classe promossa dal nostro Studio per il Moige e le Famiglie avanza proprio questa richiesta: la modifica del design delle piattaforme per limitarne il potere di condizionamento a danno dei minori e dei più fragili.

Se l’azienda non adempirà all’invito della Commissione di adeguare i propri sistemi alle norme vigenti, rischia una sanzione fino al 6% del suo fatturato annuo …una cifra monstre di circa 8/9 miliardi di euro!

Per ulteriori approfondimenti, è possibile scrivere ai professionisti dello Studio legale A&C all’indirizzo info@ambrosioecommodo.it.


[1] Landgericht Berlin II, Sentenza del 23.12.2025, 15 O 271/23.

image_pdfVersione PDFimage_printStampa