La plateforme de partage de vidéos a souligné que ce contenu pouvait être « inoffensif en tant que vidéo unique », mais qu'il pouvait néanmoins « être problématique pour certains adolescents s'il était visionné de manière répétée ».
Dans un billet de blog, YouTube explique : « Ces catégories incluent les contenus qui comparent les caractéristiques physiques et idéalisent certains types par rapport à d'autres, idéalisent des niveaux de forme physique ou des poids corporels spécifiques, ou affichent des agressions sociales sous la forme de combats sans contact et d'intimidations. »
Ils poursuivent : « En conséquence, nous limitons désormais les recommandations répétées de vidéos liées à ces sujets pour les adolescents du monde entier. »
Dans certains pays d'Europe, l'entreprise a mis en place des « panneaux de ressources de soutien en cas de crise » qui aident les utilisateurs à trouver de l'aide auprès de « partenaires de services de crise en matière de suicide et d'automutilation ».
La plateforme continuera également à collaborer avec des experts et des parents pour développer le système.