YouTube censure à tort des vidéos de Pokémon GO prises pour de la pornographie enfantine

Après avoir censuré des vidéos et banni des comptes YouTube de joueurs de Pokémon GO pour des contenus supposément pédopornographiques, Google a fait machine arrière : le sigle CP mentionné dans ces vidéos ne voulait en fait pas dire “child pornography” mais “Combat Points” ou “Club Penguin”. Étonnant, non ?

Des YouTubers de renom, puisqu’affichant chacun plus de 3,5 millions d’abonnés, ont récemment vu leur chaîne supprimée par Google, relate BBC News. Ces créateurs de contenu avaient publié des vidéos d’eux en train de jouer à Pokémon GO. Et ce sont bien ces mises en ligne qui posent problème ici.

Pokémon Go

Ces YouTubers se sont ainsi vu signifier qu’au travers de ces partages, ils enfreignaient le règlement de YouTube qui “interdit la mise en ligne […] de n’importe quel type d’activité sexualisant des mineurs”. Certains, les yeux tout ronds, ont carrément vu leur compte Google être banni, les empêchant ainsi d’accéder à leur messagerie pour prendre contact avec Google et demander des explications.

YouTube trompé par le sigle “CP” prend des vidéos Pokémon GO pour de la pédopornographie

Il semble que le souci ici réside dans le sigle “CP” mentionné dans ces vidéos et leur interprétation par YouTube. La plate-forme a ainsi considéré que cet acronyme correspondait à “child pornography” (pornographie enfantine), alors qu’il est souvent utilisé dans Pokémon GO pour désigner les “Combat Points” ou encore le “Club Penguin”.

Si pour l’heure, Google n’a pas confirmé cette confusion, il apparaît que cette dernière a également touché des communautés extérieures à Pokémon GO. Et pour une fois, l’erreur ne serait pas d’origine humaine puisque semblant provenir d’un algorithme strict, bête et méchant.

Depuis, les vidéos supprimées et les comptes bannis des YouTubers qui avaient déposé réclamation ont été rétablis. Il n’en reste pas moins que ces internautes déplorent un “manque total de communication” de la part de Google, et d’appeler à ce qu’à l’avenir, des êtres humains consultent les vidéos signalées avant d’éventuellement décider de les retirer.

Attention tout de même car de véritables pédophiles pourraient désormais tenter de partager du contenu illégal de cette manière si la modération restait aussi robotique et dénuée de sens.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.