YouTube : un simulateur pour visualiser comment les gens tombent dans le complotisme

YouTube est la plateforme de streaming vidéo la plus populaire au monde. Seulement, ce dernier a fortement été critiqué pour avoir recommandé des vidéos propageant des fausses nouvelles et des théories complètement folles. De ce fait, le sénateur Josh Hawley a proposé une législation obligeant la plateforme à remédier à ce problème.

Il y a quelques mois, le site s’est ainsi engagé à ne plus recommander ce genre de vidéos. Cependant, le simulateur « TheirTube » démontre aujourd’hui que le problème persiste encore, mais d’une manière différente.

Crédits Pixabay

TheirTube a été créé par Tomo Kihara. Selon ce dernier, la plupart des utilisateurs ne seraient pas conscients du fonctionnement des « bulles de recommandation ».

Six profils d’utilisateurs différents

En quelques mots, TheirTube est un simulateur permettant aux internautes de comprendre comment l’algorithme de YouTube sélectionne les vidéos à recommander à certains types d’utilisateurs en fonction de leur historique de visionnage.

Le simulateur permet notamment de découvrir le fonctionnement des « bulles de recommandation » sur six types d’utilisateurs : le fruitarien (fruitarian), le théoricien du complot (conspiracist), le tourmenté par la fin du monde (prepper), le libéral (liberal), le conservateur (conservative) et celui qui nie le changement climatique (climate denier).

À lire aussi : Les vidéos conspirationnistes ne seront plus proposées par YouTube

Les recommandations du site peuvent devenir toxiques pour l’utilisateur

Individuellement, les recommandations de YouTube peuvent sembler inoffensives. Le fruitarien visionnera par exemple une vidéo sur la composition des compléments alimentaires, tandis que le théoricien du complot regardera une vidéo tournant autour du monstre du Loch Ness.

Dans ces cas-là, il n’y a effectivement rien de bien choquant à signaler.

Cependant, les recommandations du site peuvent vite devenir toxiques lorsqu’elles se répètent. Il est effectivement possible que l’utilisateur reçoive une série de recommandations ne contenant aucune réfutation de l’idée complètement fausse qu’il soutient. Bien évidemment, ce deuxième cas de figure est extrêmement nocif pour l’utilisateur.

« L’algorithme de recommandation de YouTube représente 70% de toutes les vues sur la plate-forme, et bien qu’il soit utile, il peut afficher les mêmes points de vue encore et encore, confirmant et amplifiant votre biais existant. Cela peut parfois amener les gens à avoir des croyances et des idées radicales », a expliqué Tomo Kihara sur son compte Twitter.

À lire aussi : YouTube accusé de diffuser de la publicité sur les vidéos conspirationnistes

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.