Spotify a rejoint la « Tech Coalition », qui vise à promouvoir et à préserver la sécurité en ligne. La société de streaming audio a assuré que la création d’un environnement en ligne plus sûr pour les jeunes était sa priorité absolue.
Spotify aidera à connecter les utilisateurs vulnérables aux ressources en matière de santé mentale
Marcelina Slota, responsable de l'intégrité de la plateforme Spotify, a déclaré que l'entreprise restait déterminée à créer un environnement en ligne sûr pour ses auditeurs. Le service de streaming populaire a ajouté qu'il avait l'intention de permettre à son jeune public et à ses parents de mieux comprendre le monde numérique.
Spotify a annoncé qu'elle mettrait en place des processus pertinents pour aider les utilisateurs à naviguer en toute sécurité dans le monde numérique. Dans le cadre de son engagement en faveur d'une présence en ligne plus sûre, Spotify a rejoint la Tech Coalition.
déclencher une alerte de santé mentale à grande échelle au siège social de Spotify avec mes dernières recherches pic.twitter.com/KtGv1qRamA
— ap (@a_phill21) 22 juillet 2024
En plus de travailler avec la Tech Coalition, Spotify a indiqué qu'il surveillerait les habitudes de consommation de contenu sur sa plateforme pour repérer les problèmes potentiels. L'entreprise aidera à mettre en relation les utilisateurs vulnérables avec des ressources de santé mentale appropriées.
Plus précisément, Spotify recherchera les utilisateurs qui recherchent régulièrement du contenu lié au suicide, à l’automutilation et aux troubles de l’alimentation. Si elle détecte une tendance, la plateforme suggérera aux utilisateurs de contacter des plateformes de santé mentale. Il s’agit notamment de la National Suicide Prevention Lifeline aux États-Unis, du projet TREVOR, des National Eating Disorders Services, et d’autres.
Spotify va recruter du personnel et déployer l'apprentissage automatique pour la sécurité en ligne
Spotify a déjà précisé qu'il appliquait une politique de tolérance zéro à l'égard des contenus abusifs. L'entreprise interdit déjà les comportements illégaux ou abusifs, notamment à destination des jeunes.
Spotify a annoncé qu'elle allait désormais créer des équipes dédiées pour examiner et supprimer rapidement les contenus potentiellement illicites ou explicites. En outre, l'entreprise déploie des outils d'apprentissage automatique (ML) pour repérer rapidement les signes de problèmes potentiels.
pourquoi Spotify propose des ressources sur la santé mentale pic.twitter.com/WiEEcrwqlW
— Delta (@Dobs407) 23 juillet 2024
L'entreprise peut utiliser des algorithmes de machine learning pour rechercher des modèles dans les rapports des utilisateurs afin de détecter les violations de politique et les contenus dont la légalité est douteuse. En général, les systèmes automatisés surveillent, détectent et signalent un utilisateur ou un contenu. Ensuite, des examinateurs humains examinent le contenu et prennent les mesures nécessaires, telles que la censure du contenu, l'émission d'avertissements ou le blocage d'un utilisateur.
