L’Intelligence Artificielle au service de la lutte contre le fake porn

L’Intelligence Artificielle peut être une arme redoutable lorsqu’elle est bien utilisée et c’est précisément ce que prouve la toute dernière initiative de Gfycat. L’entreprise compte effectivement faire appel à ses services pour lutter plus efficacement contre le fake porn.

En fin d’année dernière, Deepfake, un développeur particulièrement doué de ses dix doigts, a eu l’idée d’utiliser plusieurs intelligences artificielles disponibles gratuitement sur la toile pour transposer le visage de Gal Gadot sur le corps d’une actrice de films pour adultes.

Fake Porn

Fier de son exploit, il a ensuite partagé la séquence sur Reddit. Le succès a bien évidemment été immédiat.

Le fake porn, la nouvelle plaie du web

Galvanisé par les félicitations et les encouragements des autres internautes, le développeur a remis le couvert avec d’autres productions du même genre. Très vite, d’autres internautes ont commencé à en faire autant et un nouveau subreddit entièrement dédié à cette activité a ouvert ses portes.

Il comptait plusieurs dizaines de milliers de membres à sa fermeture.

Face à la situation, la plupart des géants du web ont en effet pris la décision d’interdire purement et simplement ces contenus. Reddit lui-même a fini par bannir le subreddit de la plateforme.

Gfycat a été parmi les premiers à ouvrir les hostilités et à entamer un ménage de fond sur sa plateforme. Les mesures prises ne sont cependant pas suffisantes et l’entreprise a donc eu l’idée de former une intelligence artificielle afin d’identifier plus facilement les séquences de ce type.

Une manière de combattre le feu par le feu, en somme.

Cette initiative n’est pas aussi surprenante qu’on pourrait le croire. L’entreprise utilise en effet un certain nombre d’outils de ce genre pour indexer et classer les différents GIFs hébergés sur sa plateforme.

L’IA développée par ses soins s’appuie précisément sur deux de ces outils et plus précisément sur Angora et Maru. Le premier sert essentiellement à améliorer la définition des contenus partagés sur le service. Lorsqu’un GIF de faible qualité est envoyé sur la plateforme, l’outil va rechercher sur le web une version mieux définie. S’il en trouve une, alors l’image de base sera automatiquement remplacée par cette dernière.

Combattre le feu par le feu

Maru se focalise pour sa part sur la reconnaissance faciale et l’outil est ainsi capable d’identifier et de nommer les personnes apparaissant sur les GIFs afin d’aider le service à mieux les classer.

Or justement, les vidéos de fake porn ne sont pas parfaites et ces contenus comportent ainsi des artefacts invisibles à l’œil nu.

Grâce à Maru, Gfycat va donc être en mesure d’identifier les contenus ayant potentiellement fait l’objet d’un montage. Si une image déclenche l’alerte, alors Angora ira automatiquement explorer le web afin de trouver une correspondance entre les corps et les visages présents dans les animations.

En combinant ces deux outils, l’entreprise devrait donc être en mesure de trouver plus facilement les contenus retouchés.

La méthode est prometteuse, mais elle a aussi ses limites. Si la technique mise au point par Gfycat devrait obtenir de bons résultats pour les contenus présentant des personnages publics, elle risque d’avoir plus de difficulté avec les corps et les photos provenant de vidéos personnelles.

Toutefois, la firme a parfaitement conscience de ces limitations et elle compte aussi s’appuyer sur d’autres critères pour affiner ses résultats. Comme l’endroit où la vidéo a été partagée, par exemple.

En outre, le travail de cette intelligence artificielle sera bien entendu complété par des modérateurs humains.

Mots-clés fake pornweb