Fake Porn : les créateurs s’inquiètent – enfin – des dérives possibles

Le Fake Porn a pris beaucoup d’ampleur depuis le début de l’année, et de plus en plus de créateurs s’inquiètent des dérives possibles. Certains ont en effet peur de produire par mégarde des contenus pédopornographiques.

Tout a commencé en décembre dernier lorsqu’une vidéo présentant l’actrice Gal Gadot dans une production pour adultes très épicée est apparue sur la toile et sur les réseaux sociaux. Très vite, de nombreux médias se sont emparés de l’affaire, pensant ainsi avoir décroché l’affaire du siècle.

Fake Porn

Il n’en était rien cependant. La séquence n’avait en effet pas été tournée par Gal Gadot, mais par une autre actrice, une actrice sur le corps de qui avait été collé le visage de l’interprète de Wonder Woman.

Le Fake Porn, un danger pour les personnalités et pour les créateurs

Deepfake, un développeur anonyme, est alors sorti de l’ombre pour revendiquer la paternité de la vidéo et il a ainsi révélé que cette dernière avait été réalisée grâce à plusieurs intelligences artificielles disponibles gracieusement sur le web.

Par la suite, l’homme a réalisé d’autres vidéos du même type et une communauté a fini par se former autour de ses productions.

Des centaines de vidéos similaires sont apparues par la suite et un autre développeur a même été encore plus loin en créant un logiciel capable de générer très facilement ce genre de vidéos, un logiciel utilisable par des publics ne connaissant pas forcément grand-chose en intelligence artificielle.

Suite à la publication de cet outil, de nombreux sites ont tiré la sonnette d’alarme et cela a notamment été le cas de GFYCat, Twitter ou Pornhub. Conscientes des dangers inhérents au fake porn, ces trois plateformes ont en effet pris la décision d’interdire ces contenus sur leur service. Reddit en a fait autant par la suite, allant même jusqu’à suspendre le subreddit utilisé par la communauté réunie autour du travail de Deepfake.

Toutefois, le fake porn n’a pas disparu de la toile et plusieurs sites et forums spécialisés ont ainsi été lancés par la suite pour offrir une alternative au subreddit disparu.

Du Fake Porn à la pédopornographie, il n’y a qu’un pas

Or justement, en fouinant sur certains de ces sites, Motherboard a fait une étonnante découverte. De plus en plus de créateurs s’inquiètent ainsi des dérives rendues possibles par le fake porn et certains d’entre eux craignent ainsi de produire – par erreur – du matériel pédopornographique.

Pour réaliser une vidéo de ce type, il est en effet indispensable d’avoir suffisamment de photos de l’actrice visée pour pouvoir “nourrir” l’IA utilisée dans le processus de création. Les créateurs ont donc pris l’habitude de partager des sets de photos sur les forums spécialisés.

Ces fameux sets contiennent le plus souvent des dizaines de photos différentes présentant les célébrités à différents stades de leur vie.

Et tout le problème est là. En fouillant dans ces sets, plusieurs créateurs ont en effet eu la désagréable surprise de découvrir des photos présentant des personnes mineures, comme les photos des premiers tournages de l’incontournable Emma Watson.

Ce n’est pas une révélation, mais il est formellement interdit de produire ou même de partager du matériel pédopornographique. Aux Etats-Unis, la loi est très stricte en la matière et les condamnations peuvent atteindre une peine maximale de trente ans pour les cas les plus graves, contre cinq ans pour une accusation d’obscénité.

Cela vaut pour le contenu tourné par les voies habituelles, mais également pour les photomontages pouvant porter préjudice à un ou plusieurs enfants.

Ce qui est précisément le cas ici.

Mots-clés fake pornnsfy