YouTube fait le ménage pour calmer les annonceurs et les parents

YouTube a été la cible de vives critiques ces dernières semaines lorsque des vidéos dérangeantes ont commencé à apparaître dans les flux de la plateforme. Susan Wojcicki, la directrice du service, a donc pris sa plus belle plume afin d’annoncer une série de mesures visant à limiter la portée de ces contenus inappropriés.

YouTube n’a pas eu une année facile et la plateforme a même enchaîné les déboires en l’espace de quelques mois.

YouTube

Plus tôt dans l’année, le service a ainsi dû faire face au boycott de plusieurs annonceurs lorsque ces derniers ont réalisé que leurs campagnes étaient diffusées sur des canaux aux contenus peu recommandables.

YouTube enchaîne les polémiques depuis le début de l’année

L’entreprise a alors été obligée de déployer dans l’urgence de nouveaux outils afin de limiter la casse. Elle pensait sans doute que ce serait suffisant, mais cela n’a pas été le cas.

En novembre, YouTube Kids s’est en effet retrouvé dans le collimateur des médias suite à la découverte de milliers de vidéos douteuses et de commentaires à la moralité discutable. Là encore, de nombreuses marques comme Lidl, Deutsche Bank, HP ou même Sky ont préféré suspendre leurs campagnes publicitaires pour éviter de voir leur nom associé à ces contenus.

YouTube a une fois de plus été prompt à réagir et le service a ainsi annoncé la semaine dernière avoir supprimé plusieurs milliers de vidéos et de canaux de diffusion. Toutefois, Susan Wojcicki n’a pas l’intention d’en rester là et elle a ainsi annoncé par le biais d’une note une série de mesures visant à nettoyer la plateforme de tous ces contenus inappropriés.

La CEO de l’entreprise a ainsi commencé par annoncer la constitution d’une nouvelle équipe de dix mille personnes assignées à la modération des vidéos diffusées sur le service. Ces modérateurs entreront en activité d’ici 2018 et ils auront principalement pour but de repérer et de supprimer les contenus sensibles, polémiques ou contraire aux conditions d’utilisation fixées par l’entreprise.

10 000 modérateurs en plus

Toutefois, leur mission ne se limitera pas à ce seul travail de modération et cette division spéciale aura également pour but de former les algorithmes mis en place sur YouTube afin de les rendre plus efficaces.

YouTube est effectivement dans l’incapacité de vérifier manuellement chaque vidéo partagée sur la plateforme. Pour compléter le travail de ses modérateurs, la firme a donc développé des algorithmes capables de détecter les contenus inappropriés.

Relativement efficaces, ces derniers permettent à l’heure actuelle de détecter environ 98 % des vidéos extrémistes et violentes diffusées sur la plateforme. Mieux, grâce à ces programmes automatiques, 70 % des contenus extrémistes sont supprimés dans les huit heures suivant leur envoi.

Toutefois et en dépit du savoir-faire de la maison-mère, ces algorithmes sont encore imparfaits et il leur arrive souvent de commettre des erreurs.

Dans ce contexte, il est indispensable de les entraîner pour les rendre encore plus performants et plus pertinents.

En parallèle, YouTube compte également mettre en place de nouveaux outils afin de permettre aux annonceurs de choisir avec plus de précision les canaux de diffusion de leurs campagnes.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.