À l’ère du contenu vidéo court, l’algorithme de recommandation de YouTube en a fait la plate-forme incontournable pour le divertissement, l’éducation et tout le reste. Cependant, un récent rapport du Tech Transparency Project (TTP), un groupe de surveillance à but non lucratif, suggère que l’algorithme de YouTube dirige désormais les jeunes garçons intéressés par les jeux vidéo vers des vidéos centrées sur les fusillades dans les écoles et la violence armée.

L’incident a été révélé lorsque des chercheurs du Tech Transparency Project ont créé de nouveaux comptes YouTube et se sont fait passer pour deux garçons de 9 ans et deux garçons de 14 ans. Une fois les comptes en ligne, ils ont regardé des heures de contenu de jeux vidéo, y compris Roblox, Halo et Grand Theft Auto, et ont enregistré leurs recommandations sur 30 jours.

Après avoir analysé les données, les chercheurs ont ensuite découvert que l’algorithme de YouTube faisait la promotion de contenus liés à la violence armée et aux armes sur tous les comptes de joueurs. Cependant, le volume de ce contenu était nettement plus élevé pour les utilisateurs qui cliquaient sur les vidéos recommandées. Ces vidéos comprenaient des démonstrations graphiques du pouvoir destructeur des armes à feu, des scènes représentant des fusillades dans des écoles et d’autres événements de tir de masse, ainsi que des guides sur la façon de convertir une arme de poing en une arme entièrement automatique. De plus, la plateforme a même monétisé certaines de ces vidéos, violant ainsi ses propres politiques.

« Les enfants qui ne sont pas assez vieux pour acheter une arme à feu ne devraient pas pouvoir se tourner vers YouTube pour apprendre à fabriquer une arme à feu, à la modifier pour la rendre plus meurtrière ou à commettre des atrocités », a déclaré Justin Wagner, directeur des enquêtes chez Everytown. pour la sécurité des armes à feu.

La réponse de YouTube

En réponse au rapport, un porte-parole de YouTube a souligné l’existence de l’application YouTube Kids et a déclaré : « Nous accueillons favorablement la recherche sur nos recommandations et nous explorons d’autres moyens de faire appel à des chercheurs universitaires pour étudier nos systèmes. Mais en examinant la méthodologie de ce rapport, il nous est difficile de tirer des conclusions solides. Par exemple, l’étude ne fournit pas le contexte du nombre de vidéos globales recommandées pour les comptes de test, et ne donne pas non plus d’informations sur la façon dont les comptes de test ont été configurés, y compris si les outils d’expériences supervisées de YouTube ont été appliqués.

A lire également