TikTok implementează în UE un sistem automatizat de identificare a vârstei: pilotul din Marea Britanie a dus la eliminarea a mii de conturi

TikTok extinde în UE un sistem care estimează vârsta utilizatorilor, testat în UK, unde proiectul pilot a dus la eliminarea a mii de conturi; măsura vine în contextul reglementărilor şi al presiunilor internaţionale.

TikTok implementează în UE un sistem automatizat de identificare a vârstei: pilotul din Marea Britanie a dus la eliminarea a mii de conturi

Sursa foto: Imagine generată AI iAceastă imagine a fost generată automat de AI pe baza rezumatului articolului și nu reprezintă un moment real fotografiat.


TikTok a anunțat că va extinde în Uniunea Europeană un sistem tehnologic pentru verificarea vârstei utilizatorilor, măsură care urmează să fie implementată treptat în săptămânile următoare. Decizia survine pe fondul presiunilor tot mai mari la nivel internaţional pentru protejarea copiilor pe platformele de socializare şi vine după un proiect pilot derulat în Marea Britanie care a condus deja la eliminarea a mii de conturi.

Cum funcţionează noua tehnologie de verificare a vârstei

Sistemul, testat discret în Uniunea Europeană în ultimele 12 luni, se bazează pe analiza automată a datelor de profil, a conţinutului încărcat şi a unor semnale comportamentale pentru a estima probabilitatea ca un cont să aparţină unei persoane sub 13 ani. Atunci când algoritmul semnalează posibilitatea ca un utilizator să fie minor, contul respectiv este marcat pentru o verificare ulterioară.

În loc ca aceste conturi să fie blocate automat, platforma prevede ca ele să fie supuse unei revizuiri manuale de către moderatori specializați. După evaluarea umană, conturile semnalate pot fi eliminate dacă se confirmă că aparţin unor utilizatori sub limita de vârstă stabilită.

Rezultatele proiectului pilot din Marea Britanie

Compania susţine că proiectul pilot derulat în Regatul Unit a avut un impact clar: în urma aplicării mecanismului de identificare şi revizuire, „mii de conturi” au fost îndepărtate de pe platformă. Această etapă a fost prezentată drept un test relevant pentru adaptarea tehnologiei la cerinţele şi particularităţile pieţei europene.

Contextul reglementar şi reacţiile internaţionale

Măsura anunţată de TikTok survine într-un moment în care autorităţile europene examinează modul în care platformele verifică vârsta utilizatorilor, în conformitate cu normele de protecţie a datelor. Compania spune că tehnologia a fost proiectată special pentru a răspunde cerinţelor de reglementare din Uniunea Europeană şi că a lucrat în cooperare cu autoritatea irlandeză responsabilă de protecţia confidenţialităţii, Comisia pentru Protecția Datelor din Irlanda, în timpul dezvoltării sistemului.

De asemenea, noul demers are loc în contextul în care alte state au luat deja măsuri stricte privind accesul tinerilor la reţele sociale. În decembrie, Australia a introdus o interdicţie de acces la reţelele de socializare pentru persoanele sub 16 ani, iar autorităţile de acolo au anunţat că peste 4,7 milioane de conturi au fost eliminate până acum de pe 10 platforme, printre care YouTube, TikTok, Instagram, Snapchat și Facebook.

Dezbateri politice în Marea Britanie

În plan intern, în Marea Britanie, subiectul a generat discuţii politice intense. Keir Starmer, prim-ministrul britanic, a declarat parlamentarilor că este deschis ideii unei interdicţii de acces la reţelele sociale pentru tinerii sub 16 ani, exprimându-şi îngrijorarea privind timpul extrem de mult petrecut de copii şi adolescenţi în faţa ecranelor. Starmer a spus că a fost alarmat de relatările referitoare la copii de cinci ani care petrec ore întregi pe dispozitivele lor în fiecare zi şi că este tot mai îngrijorat de daunele produse de reţelele sociale asupra celor sub 16 ani.

Anterior, Starmer se opusese unei interdicţii totale, argumentând că o astfel de măsură ar fi greu de aplicat şi ar putea determina adolescenţii să migreze către zone ale internetului mai greu de reglementat, precum dark web-ul.

Presiuni publice şi cazuri tragice

Cazurile personale au amplificat presiunile asupra autorităţilor şi companiilor. Ellen Roome, mama lui Jools Sweeney, un băiat de 14 ani care a murit după ce o provocare online a avut un deznodământ tragic, a cerut mai multe drepturi pentru părinţi în ceea ce priveşte accesul la conturile de socializare ale copiilor lor în situaţii în care minorii mor. Cererile acesteia au readus în atenţie vulnerabilităţile şi responsabilităţile platformelor în astfel de cazuri sensibile.

Răspunsul industriei şi măsuri complementare

Pe lângă TikTok, şi alte companii active pe segmentul tinerilor sunt supuse presiunilor pentru a îmbunătăţi verificarea vârstei şi moderarea conţinutului. Meta, compania-mamă a Facebook și Instagram, apelează deja la servicii externe de verificare a vârstei, folosind compania Yoti pentru a verifica vârstele utilizatorilor pe Facebook.

Autorităţile europene şi legiuitorii insistă tot mai mult asupra necesităţii unor limite de vârstă bine definite pentru accesul pe reţelele de socializare. De exemplu, Parlamentul European a cerut impunerea unor astfel de limite, iar Danemarca a propus o interdicţie a utilizării reţelelor sociale pentru persoanele sub 15 ani. În acest climat legislativ, companiile tehnologice trebuie să îşi adapteze politicile şi instrumentele pentru a respecta reglementările şi aşteptările publice.

Transparenţa moderării şi investigaţii anterioare

Transparenţa proceselor de moderare este un subiect care revine frecvent în dezbatere. În 2023, o anchetă publicată de The Guardian a arătat că moderatorilor li s-a cerut uneori să permită rămânerea pe platformă a unor copii sub 13 ani, dacă aceştia pretindeau că părinţii lor le supravegheau conturile. Astfel de dezvăluiri au alimentat neîncrederea publică şi cererile pentru proceduri mai stricte şi mai clare privind identificarea şi gestionarea conturilor aparţinând minorilor.

Declaraţii oficiale şi cooperare cu autorităţile

TikTok, parte a grupului ByteDance, a comunicat public că tehnologia dezvoltată a ţinut cont de cerinţele de reglementare din UE şi că a colaborat cu autorităţile competente din Irlanda în timpul implementării. Compania a subliniat că intenţionează să aplice soluţia în întreaga Uniune Europeană şi că abordarea aleasă urmăreşte combinarea analizei automate cu evaluarea umană pentru a reduce erorile şi pentru a oferi o decizie corectă în privinţa conturilor semnalate.

Rolul autorităţilor de protecţie a datelor

Comisia pentru Protecția Datelor din Irlanda, ca autoritate principală de reglementare a confidenţialităţii pentru multe companii tech cu sediul în Europa, a fost implicată în dezvoltarea şi evaluarea sistemului, conform declaraţiilor companiei. Această colaborare reflectă necesitatea alinierii soluţiilor tehnologice la normele de protecţie a datelor și la controlul regulator.

Ce urmează şi întrebările rămase

Implementarea pe scară largă a noului mecanism în UE înseamnă că, în perioada următoare, utilizatorii şi autorităţile vor putea observa modul în care se aplică analiza comportamentală combinată cu revizuirea umană. Rămâne de urmărit în ce măsură această abordare va reduce prezenţa copiilor foarte mici pe platforme fără a genera număr excesiv de erori sau situaţii nedrepte pentru utilizatorii majori.

De asemenea, se pune întrebarea cât de eficient va fi sistemul în raport cu metodele tradiţionale de verificare a vârstei şi cât de mult vor contribui cooperarea şi supravegherea autorităţilor de reglementare la creşterea încrederii publice în astfel de soluţii tehnologice.

Semnificaţia pentru părinţi şi educatori

Măsurile anunţate vin în paralel cu apeluri tot mai numeroase pentru implicarea părinţilor şi pentru sporirea mecanismelor care să protejeze minorii în spaţiul digital. În contextul în care diverse state dezbat limite de vârstă şi interdicţii, părinţii şi educatorii sunt îndemnaţi să rămână vigilenţi şi să cunoască opţiunile disponibile pentru controlul şi supravegherea activităţii online a copiilor.

Impactul asupra platformelor populare în rândul tinerilor

Schimbările nu vizează doar TikTok; presiunile pentru verificări mai stricte ale vârstei şi pentru eliminarea conturilor aparţinând copiilor sunt resimţite de toate platformele importante populare în rândul tinerilor. Măsurile din Australia, care au condus la eliminarea a peste 4,7 milioane de conturi de pe 10 platforme, inclusiv YouTube, TikTok, Instagram, Snapchat și Facebook, reprezintă un semnal clar că reglementările şi acţiunile guvernelor pot avea efecte largi asupra întregului sector.

Pe măsură ce tehnologiile automate de identificare a vârstei vor fi rafinate şi integrate în procedurile de moderare, este probabil ca discuţiile despre limitele de vârstă, responsabilitatea platformelor şi rolul autorităţilor de reglementare să rămână pe agenda publică şi politică în lunile şi anii următori.

Mai multe detalii pot fi consultate în reportajele de presă care au relatat despre extinderea iniţiativei şi despre rezultatele proiectului pilot, precum cel publicat de The Guardian şi în materialele oficiale ale platformei TikTok.

AI 24 Știri
Prezentare generală a confidențialității

Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.