Des mesures générales sont entrées en vigueur au Royaume-Uni, vendredi, dans le but de limiter l’accès des enfants à des contenus nuisibles sur Internet.
Ces nouvelles dispositions, supervisées par l’Autorité britannique de régulation des communications (Ofcom), imposent des responsabilités strictes aux sites web et applications diffusant des contenus potentiellement dangereux, tels que les informations liées au suicide, aux automutilations, aux troubles alimentaires, ainsi qu’à la pornographie.
Les règles exigent que les plateformes numériques prennent des mesures pour vérifier l’âge des utilisateurs par des moyens fiables, tels que les cartes de crédit ou la technologie de reconnaissance faciale. Melanie Dawes, directrice générale d’Ofcom, a déclaré que des milliers de sites avaient déjà accepté de mettre en œuvre ces mesures, soulignant qu’elles représentaient un effort réglementaire sans précédent et pourraient commencer à produire des résultats concrets.
Ces mesures reposent sur la loi sur la sécurité en ligne de 2023, qui impose des responsabilités légales aux entreprises technologiques pour garantir la protection des utilisateurs, en particulier des enfants, contre les dangers numériques. La loi prévoit des amendes pouvant atteindre 18 millions de livres sterling, ou 10 % des revenus mondiaux des entreprises contrevenantes, avec la possibilité de poursuites pénales à l’encontre des dirigeants en cas de non-respect des demandes d’information émises par Ofcom.
Ces actions ont été lancées après avoir accordé aux entreprises numériques et aux autorités de régulation suffisamment de temps pour se préparer et s’adapter aux nouvelles exigences, qui représentent une étape cruciale vers un environnement numérique plus sûr pour les enfants au Royaume-Uni.