Facebook : la plateforme exploite l’IA pour détecter les utilisateurs malintentionnés

Les ingénieurs de Facebook ont conçu un nouvel outil de simulation à base d’intelligence artificielle (IA) pour limiter l’usage de comportements nuisibles sur le réseau social. Cet outil, censé détecter et prévenir le spamming, l’escroquerie ou le trafic de produits illicites sur Facebook, utilisera des bots informatiques pour simuler et expérimenter ces comportements préjudiciables.

Dénommé WW (prononcé Dub Dub) en troncature du World Wide Web, ce nouveau simulateur basé sur le Web fonctionne avec le même code informatique de base que Facebook. D’après Mark Harman, ingénieur en charge projet, toutes les actions et les observations sont réalisées à travers l’infrastructure réelle du réseau social. Cependant, la conception des bots ne leur permet pas d’interagir avec les utilisateurs de Facebook.

facebook

Crédits Pixabay

La recherche menée par Harman, au sein du département IA de l’entreprise, à Londres, est encore en phase de test et n’entraîne donc aucun changement sur Facebook. Toutefois, des modifications du code de Facebook seront prévues d’ici la fin de l’année.

Des bots pour mimer les utilisateurs

L’interface du simulateur WW n’est pas tout à fait une copie visuelle de l’interface graphique de Facebook. Il s’agirait plutôt d’un environnement qui enregistre toutes les interactions entre les bots sous forme de listings de données numériques. L’étude du comportement des bots ne correspond donc pas exactement à l’étude de l’interaction des gens dans un groupe Facebook.

Plus en détail, Harman et son équipe étudient l’interaction entre deux groupes de bots classés comme « innocent » et « mauvais ». Chaque bot étant censé représenter un utilisateur dans Facebook. Les ingénieurs essayent ensuite de stopper les bots mauvais en mettant en place diverses contraintes, comme la limitation du nombre de messages ou de publications privées que ces derniers envoient par minute, afin de voir si cela affecte leur comportement. Selon Harman, pour identifier les vecteurs de contraintes les plus efficaces, ces procédures peuvent être appliquées à des dizaines voire des centaines de milliers de bots en même temps.

Les bots sont alors entraînés de différentes manières. Ils peuvent recevoir des instructions explicites, ils peuvent imiter le comportement réel d’un utilisateur et parfois même, ils peuvent décider de leurs propres actions lorsqu’on leur assigne un certain objectif. Dans ce dernier cas, comme Harman le stipule, certains bots mauvais ont réussi à trouver des moyens inattendus pour atteindre leurs objectifs. Cette approche a donc permis aux ingénieurs de découvrir de nouvelles failles dans l’architecture de Facebook.

À lire aussi : Quand Facebook aide une ville danoise à chauffer ses habitants

Les forces et faiblesses du simulateur

La simulation d’un comportement désiré est une pratique assez courante en apprentissage machine, là où le projet WW se démarque, c’est dans sa capacité à simuler directement sur la version réelle de Facebook. De plus, il présente l’avantage d’opérer des milliers de simulations pour identifier toutes les sortes de changements sur la plateforme qui n’affectent pas les utilisateurs. Toutefois, comme l’indique Harman : « la puissance… du big data n’est pas encore pleinement appréciée, ».

Cependant, la méthode des ingénieurs de Facebook possède ses limites. En effet, le simulateur ne permet pas encore de modéliser l’intention de l’utilisateur tout comme il ne permet pas de simuler des comportements complexes. Les bots peuvent faire plusieurs actions comme faire des demandes d’amis, faire des recherches, laisser des commentaires, publier et envoyer des messages mais le contenu de ces actions ne peut pas encore être simulé.

À lire aussi : Facebook peut (parfois) sauver des vies

Mots-clés facebook