Una recente sentenza emessa da un Tribunale di Los Angeles ha ritenuto responsabili Google e Meta della dipendenza dai social media tra i giovani, a seguito di denuncia di una ventenne californiana che ha accusato Youtube (Google) e Instagram (Meta) di averle causato depressione e pensieri suicidi, essendo diventata dipendente dalle app in giovane età a causa del design di tali app.
La novità rilevante è quindi l’oggetto dell’accusa: invece di contestare singoli video o post, sono stati presi di mira elementi strutturali delle applicazioni stesse, quali possibilità di scroll infiniti,  algoritmi di raccomandazione, assenza di filtri, notifiche, meccanismi di personalizzazione, e tanto ha consentito di superare una delle principali difese delle piattaforme negli Stati Uniti, ovvero quella di essere semplici intermediari e non editori dei contenuti pubblicati.
Per la prima volta Google e Meta sono state ritenute responsabili non tanto per i contenuti ospitati, quanto per il modo in cui le piattaforme sono progettate e per il design dei loro servizi, ritenuto idoneo a orientare il comportamento degli utenti, favorendo la dipendenza nei minori, con effetti potenzialmente dannosi.
Le conseguenze potrebbero essere significative, soprattutto negli Stati Uniti, dove si prevede un aumento del contenzioso e una possibile revisione dei modelli di design delle piattaforme. Tuttavia, l’esito resta incerto, trattandosi di una decisione di primo per la quale è già stata prospettata l’impugnazione.
Nel contesto europeo e di conseguenza italiano, esiste un quadro regolatorio strutturato disciplinato dal Regolamento (UE) 2022/2065  – Digital Services Act che indica con puntualità gli obblighi a carico dei prestatori di servizi intermediari come le piattaforme in parola, obblighi che riguardano un comportamento diligente volto a garantire un ambiente online trasparente con condizioni generali di utilizzo, tra cui i criteri di moderazione dei contenuti e le eventuali restrizioni applicate agli utenti, nel rispetto dei diritti fondamentali; per i servizi di hosting è obbligatorio prevedere un sistema per la segnalazione di contenuti illeciti e dei meccanismi di reclamo, cui devono poter accedere gli utenti. E’ altresì previsto all’articolo 54 del Digital Services Act il diritto al risarcimento in favore dei destinatari per i danni subiti a causa della violazione degli obblighi del Regolamento da parte del prestatore di servizi intermediari.
Tuttavia, le previsioni del Regolamento e la conseguente possibilità di risarcimento riguardano per lo più la gestione dei contenuti di tali servizi e le modalità con cui devono funzionare per essere considerate trasparenti, imponendo di fatto una descrizione su come le stesse siano concepite, come funzionano i sistemi di moderazione, quali criteri vengano applicati e quali strumenti (anche algoritmici) siano utilizzati.
Pertanto, in Italia, una pronuncia analoga a quella della Corte californiana non è esclusa, ma incontrerebbe ostacoli rilevanti. Gli strumenti giuridici esistenti — in particolare la responsabilità aquiliana ex Art. 2043 Codice Civile — consentirebbero in effetti di agire per il risarcimento del danno, ma richiederebbero una prova rigorosa e complessa del nesso causale tra design della piattaforma e pregiudizio subito.
Ne deriva che, pur essendo configurabile anche in Italia un contenzioso fondato sul design delle piattaforme, è più probabile che l’evoluzione della materia passi attraverso la regolamentazione normativa e l’enforcement pubblico, piuttosto che tramite pronunce giudiziarie di forte impatto sistemico analoghe a quelle statunitensi.

A tale ultimo proposito in Italia è attualmente in fase di discussione alla Commissione competente del Senato il Disegno Di Legge S.1136, “Disposizioni per la tutela dei minori nella dimensione digitale”, di cui è stato adottato un nuovo testo base nel corso del mese di marzo 2026, con l’obiettivo di elevare il livello di protezione della salute psico-fisica dei minori rispetto alle conseguenze derivanti dall’utilizzo di servizi di social network online e alle piattaforme di condivisione di video.

Il DDL introduce una serie di misure per rafforzare la tutela dei minori nell’uso di social network e piattaforme video, con un’impostazione piuttosto restrittiva rispetto alla situazione attuale.

Innanzi tutto viene previsto il divieto di attivazione di account sui social network online e sulle piattaforme di condivisione di video prima del compimento dei 15 anni di età, con l’introduzione di un sistema ufficiale rigoroso di verifica dell’età.

Sul piano giuridico, i contratti stipulati dai minori di età inferiore ai 15 anni saranno nulli e l’account, benché creato prima dell’entrata in vigore della legge, resterà valido solo se al momento dell’entrata in vigore della legge il minore avrà compiuto i 15 anni.

Per i minori sopra i 15 anni che svolgono attività di influencer, si prevede che l’Autorità per le garanzie nelle comunicazioni definisca linee guida specifiche con regole chiare su trasparenza, pubblicità, tutela dei diritti e riconoscibilità dei contenuti promozionali.

Infine, sono previste campagne pubbliche, finanziate con fondi statali per promuovere il controllo parentale e un uso più consapevole della rete, rivolte sia ai minori sia ai genitori.

Il dibattito è ancora in corso e la norma subirà probabilmente ulteriori modifiche prima dell’approvazione definitiva.