YouTube accusé de favoriser les théories du complot pour retenir captifs les internautes (MAJ)

YouTube est souvent critiqué pour son algorithme en charge des recommandations et certaines soupçonnent même le service de truquer volontairement les contenus remontés pour retenir ses visiteurs. Les confidences faites au Guardian par un ancien employé de la firme semblent aller dans ce sens.

YouTube n’est pas un simple site perdu dans l’immensité du web et la plateforme compte ainsi 1,5 milliard d’utilisateurs à travers le monde. Mieux, le service attire même plus de trente-sept millions de personnes dans l’hexagone, soit environ 81 % de la population connectée.

YouTube

L’année dernière, le géant de la vidéo en ligne a d’ailleurs franchi un nouveau cap en dépassant le milliard d’heures de vidéos visionnées.

YouTube, un service familier des polémiques

YouTube a beau être une plateforme très populaire, l’entreprise s’est également retrouvée au cœur de nombreuses polémiques durant ces derniers mois et elle a notamment été accusée de favoriser la diffusion de contenus violents ou malaisants.

Face à la situation, le géant américain a pris le taureau par les cornes en modifiant son programme de monétisation et en prenant ses distances vis-à-vis de certains des plus gros YouTubeurs.

Il semblerait cependant que ce ne soit pas suffisant, car le service est désormais accusé de favoriser les vidéos complotistes pour tenir ses visiteurs captifs et pour les retenir ainsi plus longtemps sur la plateforme.

Ces rumeurs circulent depuis plusieurs semaines, mais la situation vient de prendre une toute nouvelle tournure suite aux confessions faites par Guillaume Chaslot, un développeur français âgé de trente-six ans.

Durant les trois années passées chez Google, l’homme a occupé plusieurs postes et il a notamment été amené à travailler sur le système de recommandations du service, un système qu’il ne porte visiblement pas dans son cœur : “YouTube ressemble à la réalité, mais [le service] est déformé pour vous faire passer plus de temps en ligne. L’algorithme de recommandation n’est pas optimisé pour ce qui est véridique, équilibré ou même sain pour la démocratie”.

Plus intéressant, selon le développeur, si l’algorithme évolue en permanence, il a principalement pour but de prolonger la durée de visionnage des vidéos hébergées sur la plateforme et l’équipe en charge de son développement serait prête à tout pour atteindre cet objectif, même à faire remonter des séquences au contenu discutable.

Des recommandations un peu trop orientées ?

Inquiet, Chaslot aurait tenté à plusieurs reprises de faire bouger les choses en interne en proposant des changements destinés à diversifier le contenu remonté par le système, mais ses différentes tentatives – et celles de certains de ses collègues – se seraient toutes soldées par de cuisants échecs et Google aurait fini par le licencier en 2013 en prétextant des problèmes de performance.

Intrigué, le Guardian a bien évidemment contacté YouTube et si l’entreprise n’a pas confirmé les dires de son ancien ingénieur, elle a tout de même précisé que le système de recommandations intégré à la plateforme avait beaucoup changé depuis son époque.

Désormais, l’algorithme ne se limiterait effectivement plus aux contenus eux-mêmes et il prendrait ainsi en compte les interactions des utilisateurs, notamment au travers de leurs likes. YouTube a également indiqué avoir mis en place des modifications supplémentaires l’année dernière afin de limiter la visibilité des contenus extrémistes ou suprématistes.

Toutefois, Chaslot estime que ces modifications ne sont que de la poudre aux yeux et il a ainsi développé en 2016 un logiciel afin d’analyser en détail le fonctionnement du système de recommandations.

Pour se faire, le développeur a créé un programme capable de simuler le comportement d’un utilisateur lambda au travers de plusieurs étapes cruciales reposant sur la recherche d’un contenu, la lecture d’une vidéo et la navigation au sein du système de navigation.

YouTube aurait un faible pour les vidéos complotistes

Pendant dix-huit mois, Chaslot a utilisé ce système afin d’étudier le moteur de recommandations de YouTube et il a ainsi répété le processus des milliers de fois afin de pouvoir analyser le comportement de l’algorithme utilisé par le service.

Les résultats de cette expérience sont tous accessibles à cette adresse.

D’après Chaslot, l’étude a démontré que YouTube avait pour habitude d’amplifier les contenus sensationnalistes ou conspirationnistes afin de provoquer plus d’interactions avec l’internaute. Parmi les contenus les plus remontés, on trouve des vidéos affirmant que le Pape est en réalité l’antéchrist ou encore des séquences “démontrant” que la Terre est plate.

Plus grave, il accuse également le moteur de recommandations de ne pas avoir fait preuve de neutralité durant les dernières élections présidentielles en favorisant Donald Trump. L’algorithme aurait ainsi fait remonter des séquences prenant position pour le 45e président américain au détriment de son opposante, Hillary Clinton.

Pire, il aurait également favorisé la propagation de fausses rumeurs en faisant remonter des vidéos affirmant que la candidate était atteinte de Parkinson ou de Syphilis et en l’accusant d’avoir des relations sexuelles secrètes avec de nombreux partenaires.

YouTube n’entend pas les choses de la même manière bien entendu et un porte-parole de l’entreprise a ainsi déclaré que la recherche et le moteur de recommandations reflétaient simplement ce que les gens recherchent et ce qu’ils choisissent de regarder sur la plateforme. Pour lui, l’algorithme se contente donc de refléter ce qui intéresse les spectateurs.

Et c’est peut-être bien ça le problème, non ?

MAJ : YouTube m’a contacté pour me faire part des deux réactions officielles d’un porte-parole de la division française de la firme : 

“YouTube dispose de systèmes sophistiqués pour détecter et empêcher toute manipulation de sa plate-forme, y compris pour ses algorithmes de recommandation. Moins de 5% des vues sur YouTube proviennent de sources externes comme les réseaux sociaux ou les moteurs de recherche. Ainsi, les vues comptabilisées sur les réseaux sociaux n’ont pas d’impact significatif sur l’audience globale. Comme nous l’avons indiqué aux enquêteurs, nous n’avons aucune preuve de manipulation par des acteurs étrangers.”
 
“Nous ne sommes pas d’accord avec la méthodologie, les données et surtout les conclusions de l’étude menée par le Guardian. L’échantillon de 8300 vidéos évaluées ne donne pas une illustration précise des vidéos recommandées sur YouTube il y a plus d’un an à l’approche de l’élection présidentielle américaine. Nos systèmes de recherche et de recommandation reflètent les intérêts des internautes, le nombre de vidéos disponibles et les vidéos que les utilisateurs choisissent de regarder sur YouTube.”

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.