L’intelligence artificielle contre l’apologie du terrorisme sur Facebook

Facebook est très apprécié des groupes terroristes. Nombre d’entre eux utilisent ainsi la plateforme pour promouvoir leurs opérations ou trouver de nouvelles recrues. Les États font donc pression sur l’entreprise américaine. En avril dernier Emmanuel Macron avait d’ailleurs affirmé son intention de soumettre les géants de l’internet à une obligation absolue de résultats en matière de terrorisme.

En interne, les employés du groupe sont également soumis à de fortes pressions. Six d’entre eux courent même un risque élevé, car elles appartiennent au service antipropagande djihadiste de la firme.

IA Facebook

L’un d’entre eux a d’ailleurs choisi de quitter l’Irlande pour se sentir en sécurité. Facebook se devait donc de réagir.

Une IA pour lutter contre le terrorisme

Sans surprise, la firme a décidé de se tourner vers l’intelligence artificielle pour accentuer la lute contre ces contenus et dispenser  du même coup les modérateurs humains de cette tâche périlleuse.

Depuis un certain temps, des modérateurs de Facebook surveillent des diffuseurs d’images violentes ou pornographiques. Ils essaient également de contrôler les activités de potentiels terroristes au sein du réseau social. Ceux-ci seraient probablement associés à Daech, au Hezbollah et au Parti des Travailleurs du Kurdistan.

Néanmoins, cette disposition est facilement contournée par les agents de communication de ces groupes. Récemment, des données personnelles des modérateurs de Facebook ont été notifiées aux personnes qu’ils surveillaient. C’est pourquoi Monika Bickert, directrice de la politique publique de la société, préconise l’utilisation d’une IA adaptée.

Un plan d’action précis pour limiter les contenus de propagande

Facebook a présenté le contenu de son plan d’action dans un communiqué. Au lieu de chercher à supprimer les contenus violents, le réseau social a décidé d’éviter leur publication.

Pour ce faire, la firme emploie une intelligence artificielle basée sur la correspondance d’images et la compréhension du langage.

La première se fonde sur une base de données rassemblant toutes les informations qui ont été classées comme à caractères « terroristes ». Toutes les images ou vidéos nouvellement postées doivent désormais y passer. La seconde passe par un algorithme qui s’efforce de comprendre les textes publiés, a expliqué Brian Fishman, le manager de l’équipe antiterroriste du réseau social.

Il faudra cependant attendre encore quelques mois pour pouvoir juger de l’efficacité réelle de cette IA.

Mots-clés facebookweb