Les récentes tragédies et décisions de justice incitent l’Europe à une réglementation plus stricte des plateformes de médias sociaux et à un environnement en ligne fondamentalement plus protecteur pour les jeunes. Ce mouvement est alimenté par des preuves de plus en plus nombreuses selon lesquelles les algorithmes et les pratiques actuelles de modération des contenus nuisent activement à la santé mentale des enfants.
Le coût humain d’un accès sans entrave
Le cas de Marie Le Tiec, une jeune Française de 15 ans qui s’est suicidée en 2021, met en lumière les dangers. Sa mère, Stéphanie Mistre, a découvert des contenus profondément troublants sur son fil TikTok après sa mort, notamment des chansons promouvant le suicide et des instructions explicites reflétant la méthode utilisée par Marie. Mistre est désormais un ardent défenseur de la sécurité en ligne et un plaignant dans un procès contre TikTok, accusant la plateforme de profiter des crises de santé mentale des enfants.
Il ne s’agit pas d’un incident isolé. Un jury californien a récemment déclaré Meta et YouTube responsables d’avoir intentionnellement conçu des fonctionnalités addictives qui nuisaient au bien-être mental d’un jeune utilisateur. Cette décision historique pourrait ouvrir la porte à de nouveaux litiges aux États-Unis.
L’approche réglementaire européenne
L’Union européenne adopte une approche plus proactive. La commissaire Henna Virkkunen, responsable de la politique technologique, a déclaré que les régulateurs ont l’intention de « fixer une limite claire : on ne peut pas faire des affaires en nuisant à la santé mentale des gens ». L’objectif n’est pas seulement de modérer le contenu, mais de remodeler fondamentalement Internet pour empêcher toute exposition nocive aux enfants. Cela inclut de limiter l’accès aux contenus sexuels ou violents avant que les enfants ne soient prêts à se développer et de freiner les algorithmes manipulateurs qui encouragent une utilisation compulsive.
Les implications sont importantes : les grandes plateformes pourraient être confrontées à des sanctions juridiques et financières si elles ne s’y conforment pas. La pression en faveur d’un Web « plus doux » reflète une prise en compte sociétale plus large du pouvoir incontrôlé des médias sociaux et de leur impact sur les populations vulnérables.
Ce changement de politique est essentiel car les réglementations actuelles se sont révélées insuffisantes. Même si les lois existantes s’attaquent aux contenus illégaux, elles ne tiennent souvent pas compte des effets insidieux de la manipulation algorithmique et de la normalisation des comportements autodestructeurs en ligne. Les efforts de l’UE représentent une tentative cruciale de donner la priorité à la protection de l’enfance plutôt qu’aux profits des entreprises à l’ère numérique.


























