Sur TikTok, certaines influenceuses sont victimes de Deepfake porn

Depuis 2017, le deepfake est devenu un véritable fléau qui a fait du tord à de nombreuses personnes à travers le monde. Ces dernières se sont en effet retrouvées dans des vidéos truquées qui les ont mises dans des situations vraiment embarrassantes, voire humiliantes.

C’est notamment le cas du « deepfake porn » : comme son nom l’indique, ce phénomène implique le trucage de vidéo pour leur donner un caractère sexuel et/ou pornographique.

Crédits Unsplash

Eh bien dernièrement, une énorme vague de deepfakes a envahi la toile. La faute à une intelligence artificielle (IA) qui, librement disponible sur le Net, a été utilisée pour trafiquer des centaines de milliers de vidéos publiées sur TikTok. Résultat : des influenceuses se sont retrouvées avec de fausses vidéos d’elles nues, et bien évidemment postées sans leur consentement.

Des images et des vidéos truquées sur commande 

L’intelligence artificielle responsable de ces deepfake porn a été découverte par des chercheurs de Sensity, une entreprise de cybersécurité hollandaise. Rapportés par le Washington Post, ils ont dévoilé que l’IA se présente sous la forme d’un service qui permet de commander des images et des vidéos deepfake porn via un « chatbot » automatisé sur l’appli de messagerie cryptée Telegram.

Les « clients » n’ont juste qu’à soumettre une image/vidéo originale où le/les figurants portent des vêtements. Le service propose ensuite d’utiliser l’IA pour générer une version modifiée du fichier dans lequel la/les personnes sont partiellement ou complètement nues !

Le résultat est complètement bluffant, car les images/vidéos truquées par l’IA sont vraiment trompeuses : le programme est en effet capable de générer exactement le même ton de peau, mais aussi de remplacer les vêtements par des seins et des organes génitaux très réalistes.  

A lire aussi : Quand le deepfake porn déshabille des filles mineures sur Telegram

Plus de 100 000 images et vidéos trafiquées !

Le Washington Post a rapporté que plus de 100 000 personnes à travers le monde ont déjà utilisé le service deepfake porn sur Telegram pour commander des vidéos truquées. Les chercheurs de Sensity ont effectué un sondage qui a permis de déterminer que plus de 60 % des clients demandaient à ce que l’IA dénude ou déshabille une femme ou une fille qu’ils connaissent dans la vraie vie.  

Ils ont également dévoilé que la plupart des victimes sont des jeunes filles encore mineures… et dont le visage n’est même pas flouté. Les victimes sont donc parfaitement identifiables, d’autant plus qu’il n’y a aucune étiquette sur les images pour indiquer qu’elles ont été truquées.

A lire aussi : Le deepfake porn, une manne providentielle pour Pornhub, YouPorn et tous les autres

Pour Giorgio Patrini, directeur général de Sensity, ce genre d’IA représente une véritable menace : « chacun de nous, simplement en ayant un compte sur les réseaux sociaux et en publiant des photos de nous-mêmes et de nos vies publiquement, nous sommes menacés », a-t-il déclaré sans détour. « Le simple fait d’avoir une personne en ligne nous rend vulnérables à ce type d’attaque. »

Reste à voir ce que les autorités comptent faire en ce qui concerne ce service de deepfake porn.

La dernière vidéo de la chaîne

Si vous aimez les produits tech, alors n’hésitez pas à nous rejoindre sur notre chaîne YouTube.

Le dernier test publié sur la chaîne, le test des Reno4 et Reno 4 Pro de Oppo

La Fredzone est également sur Google Actualités, pensez à vous abonner à notre flux !

Mots-clés tiktok