Avv. Giuseppe Croari – Carmine Castiello
Negli ultimi anni il dibattito pubblico sulle piattaforme digitali ha subito una torsione significativa: non più soltanto privacy, dati personali e concorrenza, ma effetti sistemici dei prodotti tecnologici sul comportamento umano. In questo contesto, TikTok è diventata il caso emblematico di una nuova categoria di rischio giuridico: la dipendenza comportamentale indotta dal design della piattaforma.
Il tema non è culturale né morale, è strutturalmente giuridico.
Al centro non c’è l’uso che l’utente fa del social, ma il modo in cui il servizio viene progettato, ottimizzato e distribuito. L’algoritmo non è più considerato uno strumento neutro, bensì un ambiente decisionale che orienta le scelte individuali; è questo cambio di paradigma ad aver spinto l’Unione Europea e diverse autorità statunitensi a intervenire.
Quando il design diventa un rischio sistemico
La Commissione Europea ha formalmente contestato a TikTok una violazione del Digital Services Act (DSA), ritenendo che l’architettura funzionale dell’applicazione presenti rischi non adeguatamente mitigati per la salute mentale degli utenti, in particolare dei minori.
Il punto non è l’esistenza di contenuti nocivi, ma l’insieme delle funzionalità che incentivano un utilizzo prolungato e compulsivo.
Scorrimento infinito, riproduzione automatica, notifiche push invasive e sistemi di raccomandazione iper-personalizzati concorrono a creare un’esperienza senza attriti, priva di pause cognitive.
Dal punto di vista giuridico, ciò che rileva è l’assenza, secondo la Commissione, di misure proporzionate e tecnicamente efficaci per ridurre tali effetti, nonostante la prevedibilità del rischio.
Il DSA non vieta l’uso di algoritmi avanzati, impone però un obbligo di diligenza rafforzata alle piattaforme di dimensioni sistemiche: identificare, valutare e mitigare i rischi che derivano dal funzionamento stesso del servizio.
Quando il rischio è relativo al design, la responsabilità non può essere scaricata sull’utente finale.
La posizione di TikTok e il nodo della neutralità tecnologica
TikTok ha respinto le contestazioni definendole infondate e basate su una rappresentazione distorta della piattaforma, è una linea difensiva coerente con l’impostazione tradizionale delle big tech: il software come infrastruttura neutra, l’algoritmo come mero intermediario.
Questa impostazione è però sempre meno compatibile con l’evoluzione del diritto europeo, infatti, il DSA nasce proprio dal superamento dell’idea che il codice sia neutrale. Se un sistema è progettato per massimizzare il tempo di permanenza e l’engagement, e se tale obiettivo produce effetti dannosi prevedibili, il problema non è l’uso improprio ma la progettazione stessa.
Responsabilità civile e progettazione dannosa
Negli Stati Uniti il fronte è diverso ma convergente. Numerose azioni giudiziarie hanno accusato le principali piattaforme social di aver contribuito a disturbi psicologici gravi, autolesionismo e dipendenze comportamentali, soprattutto tra adolescenti. La strategia processuale mira a dimostrare che il prodotto digitale sia stato intenzionalmente progettato per incentivare comportamenti compulsivi, riducendo o occultando la percezione dei rischi.
In questo contesto, alcune società hanno scelto la strada del patteggiamento, evitando il giudizio di merito; dal punto di vista giuridico, il patteggiamento non equivale a un’ammissione di colpa, ma segnala un elemento rilevante: il rischio legale connesso al design algoritmico è ormai considerato concreto e potenzialmente sistemico.
A rafforzare la posizione dei regolatori intervengono studi accademici che analizzano l’esperienza d’uso delle piattaforme di video brevi, i risultati convergono su un punto: la combinazione tra immediatezza dell’accesso, personalizzazione estrema e sorpresa continua riduce la percezione del tempo e aumenta la frequenza di utilizzo.
Dal punto di vista del diritto, ciò che conta non è la terminologia neuroscientifica, ma la prevedibilità dell’effetto; se è ragionevolmente prevedibile che una certa architettura digitale induca comportamenti compulsivi, il rischio diventa giuridicamente rilevante.
Il Digital Services Act come spartiacque per le imprese digitali
Il DSA rappresenta un punto di svolta per le aziende tecnologiche che operano nel mercato europeo. Non si limita a imporre obblighi formali di trasparenza, ma introduce una logica di responsabilità preventiva. Le piattaforme molto grandi sono tenute a dimostrare di aver adottato misure concrete per ridurre i rischi sistemici generati dai propri servizi.
Questo implica un cambio radicale nel modo di concepire il prodotto digitale, non basta più che l’algoritmo funzioni bene dal punto di vista dell’engagement, deve essere giuridicamente sostenibile.
Le scelte di design diventano scelte regolatorie interne, sindacabili dalle autorità. Il DSA, in altre parole, trasforma l’UX e l’algoritmo in oggetti di diritto.
Per le imprese, la posta in gioco non è solo la sanzione amministrativa, ma la legittimazione del modello di business. Ignorare il DSA significa esporsi a un rischio normativo crescente, in un contesto in cui la tolleranza verso l’irresponsabilità algoritmica è ormai in fase discendente.
Conclusione: dalla libertà di innovare alla responsabilità di progettare
La domanda se TikTok “crei dipendenza come una droga” è giuridicamente mal posta, il diritto non giudica le analogie, ma le responsabilità.
La questione reale è se una piattaforma possa progettare ambienti digitali altamente persuasivi senza farsi carico delle conseguenze prevedibili di tale progettazione.
Se sei un’azienda e necessiti di supporto sul tema del Digital Service Act rivolgiti ai nostri partner dello Studio Legale FCLEX esperti di diritto dell’informatica e delle nuove tecnologie.