Facebook mentirait sur sa capacité à détecter et supprimer les discours de haine

Le dimanche 17 octobre 2021, le Wall Street Journal a publié un article indiquant que des employés de Facebook chargés de la modération des contenus inappropriés ont dénoncé les pratiques du réseau social. D’après ces employés, le géant des médias sociaux n’est pas encore en mesure de filtrer ces contenus offensants de manière fiable.

Le rapport du Wall Street Journal a révélé que des documents internes indiquent qu’en 2019, Facebook a réduit le temps que les modérateurs passent à examiner les plaintes pour discours haineux. Au lieu de cela, Facebook aurait effectué des ajustements au niveau de son système pour donner l’impression que son intelligence artificielle avait réussi à mieux faire respecter les politiques de l’entreprise en matière de contenus.

Des employés auraient ainsi affirmé que les systèmes automatisés de Facebook n’arrivent à détecter et à supprimer, en réalité, que moins de 1% de tout le contenu enfreignant ses politiques.

Facebook maintient que les discours de haine ont chuté de 50% ces dernières années

En réponse à ces accusations, le vice-président de l’intégrité de Facebook, Guy Rosen, a répondu à l’article du Wall Street Journal le même dimanche via un article de blog. Guy Rosen a déclaré sans détour que le « récit selon lequel la technologie que nous utilisons pour lutter contre les discours de haine est inadéquate et que nous déformons délibérément nos progrès est faux ».

Par ailleurs, ce responsable de Facebook a réitéré que la prévalence des discours de haine sur la plateforme avait chuté de 50% au cours des trois dernières années. Quant aux documents cités par Wall Street Journal, Guy Rosen a déclaré que « ce que ces documents démontrent, c’est que notre travail d’intégrité est un voyage de plusieurs années. Bien que nous ne soyons jamais parfaits, nos équipes travaillent continuellement à développer nos systèmes, à identifier les problèmes et à créer des solutions ».

Facebook a un mauvais impact sur les jeunes

D’après ce responsable de Facebook, le réseau social ne se concentre pas uniquement sur la suppression des contenus pour combattre les discours de haine. Apparemment, la technologie utilisée dans la suppression des discours de haine n’est qu’une méthode parmi d’autres qu’utilise Facebook.

Malgré tout, la dénonciatrice Frances Haugen a témoigné devant le Congrès que Facebook avait un impact négatif, particulièrement auprès des adolescents qui utilisent sa plateforme Instagram. D’ailleurs, elle a fourni des documents internes à Wall Street Journal qui s’en est servis pour produire une série de rapports sur Facebook. De son côté, Guy Rosen maintient que « nous ne voulons pas voir de haine sur notre plateforme, ni nos utilisateurs ou annonceurs et nous sommes transparents sur notre travail pour la supprimer ».