Facebook mise sur l’humain pour lutter contre les vidéos violentes

Facebook a décidé d’embaucher trois mille nouveaux modérateurs afin de lutter plus efficacement contre les contenus violents diffusés en direct sur Facebook Live. L’IA a visiblement ses limites.

Facebook Live est un outil fantastique. En quelques instants et sans la moindre connaissance technique, les mobinautes peuvent ainsi l’utiliser pour diffuser en direct leurs expériences ou leurs émissions, le tout directement depuis leur smartphone.

Modération Facebook

Oui, l’outil est impressionnant, mais il est également utilisé pour diffuser du contenu violent. Depuis l’année dernière, des vidéos mettant en scène des suicides, des agressions ou même des viols ont été massivement diffusées sur la plateforme et certaines d’entre elles sont même restées en ligne pendant plusieurs heures.

Facebook a un problème de modération

Plus tôt dans l’année, Mark Zuckerberg a lui-même reconnu le problème par le biais d’une lettre ouverte publiée sur son compte personnel. Le prince des réseaux sociaux avait d’ailleurs promis de mettre en place de nouveaux outils afin de limiter autant que possible la diffusion de ces contenus.

L’homme avait notamment évoqué l’amélioration de l’intelligence artificielle en charge de la détection des contenus contrevenant aux règles d’utilisation fixées par l’entreprise, tout en signalant que la version actuelle permettait de repérer environ 30 % des éléments signalés.

Le CEO de l’entreprise a remis le couvert mercredi en déclarant vouloir recruter pas moins de trois mille nouveaux modérateurs pour renforcer le contrôle de la vidéo en direct : « Ces dernières semaines, nous avons vu des gens se faire du mal ou faire souffrir d’autres personnes sur Facebook. Cette année, nous allons recruter plus de 3000 personnes dans le monde entier, en plus des 4500 que nous employons déjà, afin de contrôler les signalements que nous recevons tous les jours et répondre plus rapidement à la demande ».

3000 modérateurs en plus

Facebook a opté pour un système de modération assez classique… et malheureusement perfectible. Les contenus partagés sur la plateforme ne sont ainsi pas vérifiés avant publication et il faut qu’un internaute signale une photo, une vidéo ou un statut pour lancer une procédure de sécurité auprès des modérateurs.

Si le contenu en question déroge aux conditions d’utilisation fixées par l’entreprise, alors il est supprimé. Sinon, il reste en ligne.

Toutefois, le système n’est pas toujours efficace et il arrive ainsi parfois que des contenus choquants restent en ligne pendant de longues heures après avoir été signalés par les internautes. En renforçant son équipe, Facebook devrait donc être en mesure de se montrer plus réactif.

Du moins en théorie. Les vidéos en direct, de par leur nature, sont évidemment plus difficiles à contrôler que de simples photos. Dans ce contexte, on peut raisonnablement se demander si les mesures prises par la firme seront suffisantes.

Crédits Image

Mots-clés facebookweb