Meta et ses sous-plateformes sociales Instagram et Facebook sont depuis un certain temps la cible de critiques publiques concernant la sécurité des enfants et les exposent à des contenus désagréables. Cependant, ces dernières années, la société a pris de bonnes mesures pour limiter l’exposition des enfants à des contenus sensibles en ajoutant divers paramètres et options pour les enfants et les parents.

Mais le dernier ajout à la procédure de sécurité de Meta vise à éloigner encore plus les contenus sur le suicide et les troubles de l’alimentation des adolescents. Selon Androidcentral, Meta a annoncé mardi un nouvel ensemble de politiques de confidentialité et de sécurité afin de montrer aux adolescents un contenu plus adapté à leur âge. La nouvelle politique s’appliquera à tous les utilisateurs de moins de 18 ans sur Instagram et Facebook. En attendant, un déploiement mondial pourrait prendre quelques mois.

Les utilisateurs adolescents d’Instagram et de Facebook ont ​​un accès plus restreint au contenu sur l’automutilation et les troubles de l’alimentation

Selon le blog de l’entreprise, le contenu contenant des éléments d’automutilation et de troubles de l’alimentation sera supprimé des flux Instagram et Facebook des utilisateurs. Les deux plates-formes ont déjà limité l’accès des enfants à ce contenu sur Reels et Explore. Cependant, la restriction s’étend désormais aux flux et aux histoires. Meta indique qu’il restreindra le contenu même s’il est partagé par une personne suivie par l’utilisateur.

De plus, si un utilisateur mineur publie sur la gestion de l’automutilation et des troubles de l’alimentation, l’entreprise le renverra à des organisations expertes telles que la National Alliance on Mental Illness. Meta a ajouté que la nouvelle politique est conforme aux conseils des experts. En outre, ils continueront à masquer davantage de résultats de recherche liés au suicide, à l’automutilation et aux troubles de l’alimentation sur Instagram.

Un autre changement concerne les paramètres de recommandation pour les adolescents. Meta place désormais automatiquement les utilisateurs de moins de 18 ans dans le paramètre de contrôle de contenu le plus restrictif sur Instagram et Facebook. La société appliquait auparavant cette politique aux utilisateurs nouvellement enregistrés. Cependant, il l’étend désormais à tous les utilisateurs mineurs, quelle que soit leur période d’inscription.

Les paramètres visent à limiter l’accès des adolescents au contenu sensible sur Search et Explore. En remarque, le paramètre est connu sous le nom de « Contrôle du contenu sensible » sur Instagram et « Réduire » sur Facebook. Enfin, Meta a déclaré qu’elle envoyait des notifications aux utilisateurs pour les informer des derniers paramètres de confidentialité.

A lire également