Sous pression réglementaire et sociétale, TikTok annonce des restrictions majeures sur les filtres de beauté et renforce la lutte contre l’accès des mineurs à sa plateforme.
Tl;dr
- TikTok interdit aux mineurs certains filtres de beauté qui modifient l’apparence pour réduire les impacts négatifs sur leur santé mentale.
- TikTok renforce ses systèmes de détection pour exclure les moins de 13 ans et se conformer aux exigences réglementaires.
- Ces mesures s’inscrivent dans un contexte de régulation accrue, mais les experts appellent à plus de transparence et d’efforts pour protéger les jeunes.
La fin des filtres qui modifient l’apparence des jeunes
TikTok prévoit d’interdire l’utilisation de certains filtres de beauté pour les utilisateurs de moins de 18 ans, tels que ceux qui modifient les traits du visage ou la couleur de la peau. Ces filtres, comme “Bold Glamour”, ont été critiqués pour créer des attentes irréalistes et générer une baisse de l’estime de soi chez les jeunes. Les filtres plus ludiques, comme les oreilles de lapin, ne seront pas concernés. Ces restrictions visent à réduire la pression sociale liée à l’apparence. Cependant, leur efficacité dépendra de la capacité de TikTok à identifier correctement l’âge de ses utilisateurs.
Des mesures renforcées pour exclure les moins de 13 ans
Par ailleurs, TikTok s’attaque aux comptes d’utilisateurs de moins de 13 ans, déjà bannis par sa politique interne. Grâce à l’intelligence artificielle, la plateforme espère détecter les utilisateurs trop jeunes avec plus de précision. Actuellement, elle supprime environ 20 millions de comptes mineurs chaque trimestre. Ces nouvelles technologies seront testées avant la fin de l’année et permettront des appels pour les comptes supprimés par erreur. Cette mesure répond à une demande accrue de régulateurs comme Ofcom, qui soulignent les failles actuelles des plateformes en matière de respect des limites d’âge.
Une adaptation face à une réglementation stricte
Ces initiatives surviennent à la veille de la mise en œuvre de l’Online Safety Act au Royaume-Uni, qui imposera des contrôles d’âge stricts et des pénalités sévères pour non-conformité. D’autres plateformes, comme Instagram et Roblox, adoptent également des mesures similaires pour se préparer à cette réglementation. Ces adaptations illustrent une prise de conscience croissante des risques liés aux contenus inappropriés pour les jeunes. Cependant, des critiques pointent que ces actions semblent motivées davantage par la réglementation que par une réelle volonté de protéger les enfants.
Protéger les jeunes : un défi collectif
Si ces nouvelles règles sont saluées par des associations comme le NSPCC, elles ne suffisent pas selon les experts. Andy Burrows, de la Molly Rose Foundation, appelle TikTok à plus de transparence sur l’efficacité de ses contrôles. Il insiste également sur la nécessité de corriger les défauts algorithmiques qui exposent les adolescents à des contenus nuisibles. Plus largement, les acteurs comme le gouvernement et les organismes de régulation devront continuer à exercer une pression pour garantir des expériences adaptées à l’âge des jeunes. Les annonces de TikTok, bien que prometteuses, ne représentent qu’un premier pas vers un environnement numérique plus sûr.
Source link