Legge

TikTok sotto accusa, ecco perché è un pericolo per i ragazzi secondo le leggi UE

Indagine UE su TikTok per violazione norme digitali, in particolare per protezione minori e privacy online.

Avatar di Redazione Diritto dell'Informatica

a cura di Redazione Diritto dell'Informatica

Redazione Diritto dell'Informatica

È notizia di pochi giorni fa l’apertura da parte della Commissione Europa di una indagine e di un procedimento formale nei confronti della piattaforma cinese TikTok per aver violato regole e norme che l’Unione Europea si è data a tutela degli utenti tra cui i minori e per la violazione del Digital Service Act (DSA) il cui rispetto e applicazione sono obbligatori a partire dal 17 febbraio 2024.

Thierry Breton, Commissario europeo al mercato interno, ha reso noto che la Commissione Europea ha avviato un’indagine nei confronti di TikTok e a tutela degli utenti minorenni: il problema è che TikTok è progettato per tenere gli utenti “incollati” il più a lungo possibile, e per riuscirci vengono gli algoritmo lavorano per proporre contenuti sempre nuovi che in qualche modo scoraggino le persone a uscire dall’applicazione. In questo modo si portano le persone, anche i minorenni, a usare TikTok per lunghi periodi. Un modello che, si suppone, può portare anche a danni per la salute fisica e mentale degli utenti stessi. 

Perché è stata aperta un’indagine contro TikTok?

Perché questa decisione? Perché TikTok è una piattaforma social utilizzata principalmente da giovani e giovanissimi e poi perché il Regolamento Europeo per la protezione dei dati personali (Trovate una guida al GDPR in questo articolo) e il Digital Service Act (DSA) contengono espressi riferimenti alla tutela dei minori. Come per il GDPR, che ha trovato diretta applicazione, anche per il DSA vale lo stesso essendo entrambi dei regolamenti europei e cioè atti giuridici vincolanti che devono essere applicati in tutti i loro elementi e allo stesso modo in tutto il territorio comunitario.

Il GDPR con particolare riferimento all’art. 8 e il DSA con riferimento all’art. 28. Per quanto riguarda l’art. 8 GDPR è espressamente previsto che “per quanto riguarda l’offerta diretta di servizi della società dell’informazione ai minori, il trattamento di dati personali del minore è lecito ove il minore abbia almeno 16 anni. Ove il minore abbia un’età inferiore ai 16 anni, tale trattamento è lecito soltanto se e nella misura in cui tale consenso è prestato o autorizzato dal titolare della responsabilità genitoriale”. Mentre per quanto riguarda l’art. 28 DSA è previsto che “I fornitori di piattaforme online accessibili ai minori adottino misure adeguate e proporzionate per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul loro servizio […]”.

Ma cos’è il DSA (Digital Service Act) e a cosa serve?

Il Digital Service Act è il regolamento europeo sui servizi digitali introdotto con l’obiettivo di tutelare i consumatori e di garantire loro maggiore sicurezza, di contrastare la diffusione di contenuti illegali, di combattere la disinformazione online introducendo per le piattaforme nuovi obblighi in tema di accountability e di trasparenza perché l’ampia diffusione dei servizi della società dell’informazione ha fatto emergere nuovi rischi per i singoli utenti, ma anche per le società e le imprese e il DSA deve essere applicato “ai prestatori di determinati servizi della società dell’informazione quali definiti nella direttiva UE 2015/1535”. (Per saperne di più sul DSA vi segnaliamo questo articolo).

Andando a ritroso nel tempo, soprattutto a partire da novembre 2023, la Commissione Europea ha ufficialmente inviato a TikTok una richiesta di informazioni in conformità con le disposizioni del DSA. Questa azione è stata motivata dal fatto che TikTok rientra nella categoria delle "very large online platform," con oltre 134 milioni di utenti mensili solo nell'Unione Europea

Tali piattaforme, caratterizzate da milioni di iscritti e di accessi mensili, rappresentano vasti terreni in cui gli utenti, soprattutto i minori (considerati gli utenti più vulnerabili), potrebbero essere esposti a contenuti illeciti e/o illegali durante la navigazione, con potenziali rischi per la sicurezza dei più giovani.

Il DSA ha stabilito che le piattaforme di grandi dimensioni, come TikTok e altri social network, devono conformarsi alle norme più rigorose definite dal regolamento, in base al numero di iscritti e utenti che utilizzano mensilmente la piattaforma.

Già nel 2021, il Garante Privacy aveva avviato un'istruttoria su TikTok per informative inadeguate e la mancata tutela dei minori e dei loro dati personali. Inoltre, poiché ByteDance, la società gestrice del social network cinese, opera nel territorio comunitario, è tenuta a rispettare le disposizioni del GDPR per gli utenti cittadini europei. Di conseguenza, TikTok è obbligato ad adottare misure atte a impedire l'accesso alla piattaforma da parte di individui di età inferiore ai 13 anni, conformemente all'articolo 8 del GDPR e all'articolo 2 quinquies del Codice Privacy, seguendo le modifiche introdotte dal D.Lgs. 101/2018. Queste misure includono l'implementazione di sistemi di intelligenza artificiale per identificare gli utenti con età inferiore ai 13 anni.

Sanzioni per Tik Tok e possibili risvolti

Non è la prima volta che a livello comunitario si intraprendono azioni contro il colosso social TikTok per violazione della privacy dei minori (ne avevamo già parlato in questo articolo). Infatti, già lo scorso anno la Commissione Europea aveva adottato una decisione piuttosto drastica ovvero vietare l’uso di questo social network ai suoi dipendenti, sia sui dispositivi aziendali che su quelli personali.

TikTok era già stata sanzionata per 345 milioni di euro per violazione delle norme europee in materia di protezione dati personali e trattamento dei dati relativi ai minori con l’obbligo di adeguamento alla normativa entro tre mesi.

Già lo scorso anno la Commissione aveva deciso di vietare l’uso di TikTok

Inoltre, questo social network è (tristemente) noto anche la diffusione delle challenge, ovvero sfide a cui prendono parte i giovani e giovanissimi utenti del social network in questione, i quali realizzano e pubblicano video in cui mettono a repentaglio la propria vita. L’ultima challenge in ordine di tempo è quella denominata “cicatrice francese” che aveva coinvolto moltissimi minori che si strizzavano la pelle delle guance fino a farsi venire degli ematomi. Quindi su TikTok circolava (e circola) materiale fortemente dannoso e pericoloso soprattutto per il rischio di emulazione.

La società ByteDance che gestisce TikTok rischia l’irrogazione di una multa che può arrivare al sei per cento (6%) del fatturato globale.

Le responsabilità delle piattaforme sulla tutela dei minori

La società ByteDance che gestisce TikTok rischia l’irrogazione di una multa che può arrivare al sei per cento (6%) del fatturato globale.

I diversi interventi della Commissione europea contro TikTok indicano che l’attenzione che viene posta dalle istituzioni europee con i recenti interventi legislativi va nella direzione di tutelare i minori, cioè, coloro che possono essere maggiormente esposti ai rischi della Rete e l’introduzione del GDPR prima del Digital Service Act poi con articoli espressamente riferiti ai minori rappresenta il segnale di presa di coscienza da parte delle istituzioni comunitarie della necessità di garantire agli utenti deboli forme di tutela dalle insidie della rete nelle quali è facile cadere.

Se hai dubbi su quali misure giuridiche adottare per garantire la tutela degli utenti e allo stesso tempo tutelare il tuo business, rivolgiti ai nostri partner dello Studio Legale FCLEX, operano in tutta Italia e potranno aiutarti ad individuare le soluzioni migliori per il tuo caso concreto.

Immagine di copertina: armmypicca