Les options “Je n’aime pas” et “Pas intéressé” de YouTube ne font pas grand-chose pour vos recommandations, selon une étude

Il n’y a pas de secret que les deux les spectateurs et les créateurs sont troublés par le casse-tête qu’est l’algorithme de recommandation de YouTube. À présent, une nouvelle étude par Mozilla suggère que les recommandations des utilisateurs ne changent pas beaucoup lorsqu’ils utilisent des options telles que “je n’aime pas” et “pas intéressé” pour empêcher YouTube de suggérer des vidéos similaires.

L’étude de l’organisation a observé que YouTube leur proposait des vidéos similaires à celles qu’ils avaient rejetées, malgré l’utilisation d’outils de rétroaction ou la modification de leurs paramètres. En ce qui concerne les outils empêchant les mauvaises recommandations, cliquer sur “pas intéressé” et “je n’aime pas” était généralement inefficace car cela n’empêchait respectivement que 11 % et 12 % des mauvaises recommandations. Des méthodes telles que « ne pas recommander la chaîne » et « supprimer de l’historique » se classent plus efficacement, réduisant respectivement de 43 % et 29 % les mauvaises recommandations. Dans l’ensemble, les utilisateurs qui ont participé à l’étude n’étaient pas satisfaits de la capacité de YouTube à exclure les mauvaises recommandations de leurs flux.

L’étude de Mozilla a pris des données de 22 722 utilisateurs de son propre RegretReporter l’extension de navigateur — qui permet aux utilisateurs de signaler les vidéos “regrettables” et de mieux contrôler leurs recommandations — et a analysé plus de 567 millions de vidéos. Il a en outre fallu une enquête détaillée auprès de 2 757 RegretReporter utilisateurs pour mieux comprendre leurs retours.

Le rapport a noté que 78,3 % des participants ont utilisé les propres boutons de commentaires de YouTube, modifié les paramètres ou évité certaines vidéos pour “apprendre” à l’algorithme de suggérer de meilleures choses. Parmi les personnes qui ont pris des mesures pour mieux contrôler les recommandations de YouTube, 39,3 % ont déclaré que ces mesures n’avaient pas fonctionné.

“Rien n’a changé. Parfois, je signalais des choses comme trompeuses et du spam et le lendemain, c’était de retour. J’ai presque l’impression que plus les commentaires négatifs que je fournis à leurs suggestions augmentent, plus la montagne de conneries monte. Même lorsque vous bloquez certaines sources, elles finissent par revenir », a déclaré un enquêteur.

23 % des personnes qui ont fait un effort pour modifier la suggestion de YouTube ont donné une réponse mitigée. Ils ont cité des effets tels que des vidéos indésirables réapparaissant dans le flux ou consacrant beaucoup de temps et d’efforts soutenus à modifier positivement les recommandations.

«Oui, ils ont changé, mais dans le mauvais sens. D’une certaine manière, je me sens puni pour avoir essayé de façon proactive de changer le comportement de l’algorithme. À certains égards, moins d’interaction fournit moins de données sur lesquelles fonder les recommandations », a déclaré un autre participant à l’étude.

Mozilla a conclu que même les outils les plus efficaces de YouTube pour éviter les mauvaises recommandations n’étaient pas suffisants pour modifier les flux des utilisateurs. Il a déclaré que l’entreprise “n’est pas vraiment intéressée à entendre ce que ses utilisateurs veulent vraiment, préférant s’appuyer sur des méthodes opaques qui stimulent l’engagement quel que soit l’intérêt supérieur de ses utilisateurs”.

L’organisation a recommandé à YouTube de concevoir des contrôles utilisateur faciles à comprendre et de donner aux chercheurs un accès granulaire aux données pour mieux comprendre le moteur de recommandation du site de partage de vidéos. Nous avons demandé à YouTube de fournir un commentaire sur l’étude et mettrons à jour l’histoire si nous recevons une réponse.

Mozilla a mené une autre étude basée sur YouTube l’année dernière qui a noté que l’algorithme du service suggérait que 71% des utilisateurs de vidéos “regrettaient” d’avoir regardé, ce qui comprenait des clips sur la désinformation et le spam. Quelques mois après la publication de cette étude, YouTube a écrit un article de blog défendant sa décision de construire le système de recommandation actuel et de filtrer le contenu “de mauvaise qualité”.

Après des années à s’appuyer sur des algorithmes pour suggérer plus de contenu aux utilisateurs, les réseaux sociaux tels que TikTok, Twitter et Instagram tentent de fournir aux utilisateurs plus d’options pour affiner leurs flux.

Les législateurs du monde entier examinent également de plus près la manière dont les moteurs de recommandation opaques de différents réseaux sociaux peuvent affecter les utilisateurs. L’Union européenne a adopté une loi sur les services numériques en avril pour accroître la responsabilité algorithmique des plateformes, tandis que les États-Unis envisagent une loi bipartite sur la transparence des bulles de filtres pour résoudre un problème similaire.

Leave a Comment

Your email address will not be published.