Oubliez les fake news, le fake porn est le vrai danger

L’IA est de plus en plus répandue et si certains l’utilisent pour animer des voitures ou même pour nous aider à prendre de plus belles photos, d’autres font appel à ses services pour verser dans le fake porn. Il existe même un outil permettant à n’importe quelle personne d’élaborer des montages extrêmement poussés.

Tout a commencé en fin d’année dernière lorsqu’une étrange vidéo mettant en scène Gal Gadot dans une production pour adultes est apparue en ligne sur les forums de Reddit.

Fake Porn

Beaucoup ont pensé que cette séquence était réelle et que l’interprète de Wonder Woman avait bel et bien tourné dans un film pornographique.

Le fake porn se développe de plus en plus

Motherboard a alors ouvert une enquête et nos confrères ont très vite réussi à remonter jusqu’à l’auteur de la vidéo, un certain Deepfake. Ce dernier leur a alors appris que cette vidéo était un simple montage élaboré à partir de plusieurs programmes d’intelligence artificielle proposés en accès libre sur différents sites web.

La nouvelle s’est répandue comme une traînée de poudre à travers la toile et Deepfake a décidé de poursuivre sur sa lancée et de réaliser d’autres vidéos du même type, des vidéos partagées sur un fil Reddit spécialement dédié à la chose et accessible à cette adresse (NSFW).

Il compte désormais un peu plus de vingt mille abonnés.

Le plus fou reste cependant à venir, car un développeur s’est inspiré de la technique développée par Deepfake pour créer une application accessible par les néophytes, une application capable de générer ce genre de vidéos montages sans aucune connaissance technique : la FakeApp.

La première version de l’application est disponible depuis deux semaines environ et elle semble avoir rencontré un certain succès. Plusieurs centaines de personnes ont en effet commenté le topic associé et de nombreux montages supplémentaires sont apparus dans le subreddit dans la foulée, des montages mettant en scène de nombreuses personnalités différentes.

Une application pour simplifier les montages

Des personnalités comme Katy Perry, Sophie Turner, Katy Perry, Jennifer Lawrence ou même Daisy Riley.

Bien sûr, ces vidéos ne sont pas parfaites et certaines laissent même apparaître les différents calques utilisés pour les générer, mais la technologie n’en est qu’à ses prémisses et les prochaines versions de l’outil devraient corriger la plupart des bugs rencontrés par les utilisateurs.

Et c’est un véritable problème pour les stars, bien sûr, mais aussi pour les personnes ordinaires. Avec une telle technologie, n’importe qui est en effet susceptible de se retrouver du jour au lendemain dans une production pour adultes ou même dans n’importe quelle autre séquence. Il deviendra ainsi de plus en plus difficile de distinguer le vrai du faux.

Ce qui est évidemment très problématique, et encore plus lorsqu’on connaît l’impact que peuvent parfois avoir les fake news sur l’opinion publique.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.