La tentative de transparence de Facebook sur la fusillade en Nouvelle-Zélande laisse à désirer

Le vendredi 15 mars 2019, une fusillade a eu lieu en Nouvelle-Zélande. Le suspect, un homme de 28 ans, a pris pour cible deux mosquées de Christchurch et a causé la mort de 50 personnes.

Avant de passer à l’acte, le tireur avait posté un manifeste anti-musulman et pro-fasciste sur Facebook. Il a par la suite diffusé en direct la vidéo de l’attaque sur Facebook, vidéo qui s’est répandue comme une traînée de poudre sur le réseau social et s’est même propagée sur d’autres plateformes de réseautage.

facebook-wifi

Crédits Pixabay

Chris Sonderby, le vice-président et l’avocat général adjoint de Facebook a déclaré dans un communiqué que la vidéo de la fusillade avait été visionnée moins de 200 fois au cours de sa diffusion en direct et qu’en tout, la vidéo a été vue 4 000 fois environ avant que Facebook ne la supprime.

Facebook se cache derrière les signalements des utilisateurs

Dans un effort de transparence, ce responsable déclare aussi qu’aucun utilisateur n’avait signalé la vidéo lors de sa diffusion en direct et que le premier signalement n’a été fait que dans les 29 minutes après le début de la séquence vidéo ou dans les 12 minutes suivant la fin du visionnage de la diffusion de la vidéo.

Sonderbu déclare également qu’un lien vers une copie de la vidéo avait été posté sur le forum de discussion 8chan, sur lequel s’est grandement propagée la vidéo, avant que Facebook n’ait été signalé de l’existence de la vidéo.

300 000 vidéos de la fusillade ont réussi à fuiter

Ces nouvelles données parviennent peu de temps après que Facebook ait déclaré qu’il avait supprimé environ 1,5 million de vidéo sur la fusillade dans les 24 heures suivant sa diffusion en direct sur le réseau social. Selon l’entreprise, 1,2 million de ces vidéos ont été bloquées pendant leur téléchargement si bien qu’elles ne pourront pas être visionnées. Le souci, c’est que 20% de ces vidéos, soit donc 300 000 vidéos de cette fusillade, sont passées à travers les mailles de Facebook et ont pu être téléchargées et visionnées par d’autres internautes et peuvent encore se propager.

Bien que Facebook veuille faire figure de transparence en dévoilant ces chiffres, cela démontre une fois de plus que la plateforme de réseautage s’appuie encore grandement sur les signalements faits par les utilisateurs.

Et ce, malgré les outils de modération basés sur l’intelligence artificielle et l’apprentissage automatique qu’il dit mettre en place pour assainir la plateforme de tout contenu problématique.

Toutefois, une chose est sure. Question modération de contenus, Facebook a encore un long chemin à faire.

Mots-clés facebook