Antitrust vs TikTok. Dalla sfida del pizzico all’istruttoria del Garante

5' di lettura
Mi piace!
0%
Sono perplesso
0%
È triste
0%
Mi fa arrabbiare
0%
È fantastico!!!
0%

28.03.2023

È da qualche tempo che sul social TikTok c’è una nuova tendenza tra i giovanissimi; o, come si usa dire oggi, una nuova “challenge” (sfida) proveniente da Oltralpe: la cicatrice (o “trend”) francese, che consiste nell’imprimersi un ematoma di forma lineare all’altezza dello zigomo attraverso una precisa e forte pressione delle dita. Le modalità di “esecuzione” vengono anche descritte “per filo e per segno” in appositi tutorial, per poi pubblicare le foto o i video su TikTok.

Facile intuire che ci si trova di fronte ad una dinamica comportamentale adolescenziale di natura autolesionista; tesa, come spesso accade, ad attirare l’attenzione o anche ad “accreditarsi”, al fine di far parte di una “tribù”.

Su quanto questa pratica sia pericolosa, possiamo discutere. Ma di certo ogni forma di autolesionismo va presa sul serio in quanto tale. Perché, ovviamente, non è solo il “pizzico” doloroso il problema, ma quello oramai dannoso – e in continua ricerca di soluzioni – rispetto al ruolo dei social network, che rappresentano il veicolo pubblico principale di queste pratiche, con la capacità di amplificare enormemente le dinamiche relazionali, attraverso la diffusione di comportamenti spesso estremi tra giovanissimi. Video e foto che “caricati” di like e diffusi attraverso miglia di condivisioni, aumentano il rischio di emulazioni, nonché di esasperazioni comportamentali.

Sotto la lente è finito nuovamente TikTok, il social network cinese lanciato nel settembre 2014, inizialmente con il nome Musical.ly. Nuovamente, perché negli ultimi tempi è già successo.

Già nel 2020, il Garante per la protezione dei dati personali aveva dichiarato come il social ponesse scarsa attenzione alla tutela dei minori, con un divieto di iscrizione per i più piccoli facilmente aggirabile. Veniva segnalata anche poca trasparenza e chiarezza nelle informazioni rese agli utenti e impostazioni predefinite non rispettose della privacy.

Su tali tematiche riguardanti TikTok era già all’epoca in corso un’attività istruttoria nell’ambito del Comitato che riunisce le Autorità europee. Ma il nostro Garante avvertì l’urgenza di aprire comunque un procedimento formale nei confronti del social network a tutela dei minori italiani.

Nel 2021, sempre il Garante per la privacy, dispose il blocco immediato dell’uso dei dati degli utenti di TikTok per i quali non era stata accertata l’età anagrafica. Questa decisione arrivava dopo la tragica morte di una bimba di soli dieci anni, avvenuta a Palermo. La bambina si provocò la morte per asfissia, perché stava partecipando ad una “challenge” diventata virale, ed in cui ci si sfidava al soffocamento estremo.

È più recente l’intervento della Commissione europea, che ha bandito TikTok da tutti i dispositivi elettronici usati dal suo personale, per problemi relativi alla sicurezza dei dati personali. Questo divieto è inoltre in linea con quelli – per giunta molto più ampi – già imposti negli USA da parte del governo federale, per problemi di sicurezza nazionale.

Il 21 marzo scorso è intervenuta anche l’Autorità Garante della Concorrenza e del Mercato, che ha deciso di avviare un’istruttoria nei confronti della società irlandese TikTok Technology Limited, attiva nel settore dei social media attraverso la piattaforma TikTok, e responsabile per i rapporti con i consumatori europei. Il procedimento coinvolge anche la società inglese e quella italiana.

La decisione di questo intervento è scaturita proprio a seguito della presenza sulla piattaforma di numerosi video di ragazzi che adottano comportamenti autolesionistici; da ultimo, appunto, la sfida alla “cicatrice francese”, con il conseguente avvio di una istruttoria.

Secondo l’Autorità, il social sarebbe manchevole di adeguati sistemi per vigilare sui contenuti pubblicati da terzi. Inoltre, non verrebbero correttamente applicate le “Linee Guida” poste dalla stessa società proprietaria della piattaforma, che stabiliscono la rimozione di contenuti pericolosi che istigano a suicidio, autolesionismo e alimentazione scorretta.

Come si legge nel comunicato diramato, “il riferimento [dell’istruttoria ndr] è, in particolare, all’algoritmo sotteso al funzionamento della piattaforma che, adoperando i dati degli utenti, personalizza la visualizzazione della pubblicità e ripropone contenuti simili a quelli già visualizzati e con cui si è interagito attraverso la funzione like”. Nei fatti, mancherebbero filtri adeguati alla tutela dei minori.

La piattaforma respinge ogni genere di addebito, assicurando la piena disponibilità per una totale collaborazione. Però, ed è evidente, il problema rimane aperto, in un panorama digitale sempre più ricco di opportunità e insidie per i più giovani (ma non solo).

Quello della sicurezza degli utenti della rete è un tema affrontato legislativamente anche dall’Unione Europea, che ha varato di recente il Digital Service Act (DSA); normativa per la regolamentazione dei servizi digitali, che tra l’altro, stabilisce regole stringenti in materia di profilazione dei minorenni e obbliga i fornitori di piattaforme online accessibili ai minori ad adottare misure adeguate e proporzionate per garantire un elevato livello di tutela di tali soggetti vulnerabili (con la possibilità per la Commissione di emanare orientamenti ad hoc sul punto).

Ovviamente, i veloci processi di sviluppo tecnologico e la prossimità e facilità di accesso alla rete, rendono doverosi gli interventi legislativi regolatori per la tutela di soggetti deboli.

La tecnologia è ormai il nostro quotidiano e lo sarà per tutte le generazioni future. Educarle e responsabilizzarle, al fine di rendere loro evidenti pericoli e devianze a cui possono andare incontro, è una delle più importanti sfide che la modernità ci impone. Nella ricerca – sempre difficile e incerta – di un sano e virtuoso equilibrio tra l’esigenza di arginare normativamente un fenomeno pericoloso (si pensi anche all’hate speech) e quella di non pregiudicare la tutela di altri diritti e libertà rilevanti.

Articoli Correlati