Un deepfake de la reine Elizabeth II diffusé par une chaîne de télévision britannique

Channel 4, une chaîne de télévision au Royaume-Uni, a diffusé une vidéo de la reine Elizabeth II exprimant son opinion concernant les relations du prince Andrew, duc d’York avec Jeffrey Epstein, un présumé délinquant sexuel américain. Elle a également étalé ses sentiments vis-à-vis du départ de son petit-fils et sa femme.

« J’ai été attristée du départ de Harry et Meghan. Il y a peu de choses plus douloureuses que quelqu’un vous disant qu’il préfère la compagnie des Canadiens»  a-t-elle déclaré. Diffusée le 25 décembre, jour où la reine prononce habituellement un discours de Noël, la vidéo de cinq minutes se termine par une danse du chef du Commonwealth.

La Reine Elizabeth en version statue de cire
Image par minka2507 de Pixabay

La vidéo en question a attiré beaucoup d’attention alors qu’en réalité, il ne s’agit que d’un deepfake.

Un «avertissement brutal» ?

Ni le discours ni la danse n’était réel. Le rôle de la reine deepfake a été joué par l’actrice Debra Stephenson. En effet, Channel 4 a pu réaliser la vidéo en ayant recours à l’hypertrucage, une technique consistant à « superposer des fichiers audio et vidéo existants sur d’autres vidéos ».

Avec cette fausse vidéo, la chaîne de télévision britannique voulait mettre en lumière le pouvoir de la technologie du deepfake et des fausses nouvelles et sensibiliser ainsi le grand public. Ian Katz, directeur des programmes de Channel 4, a d’ailleurs affirmé qu’il s’agissait d’un « rappel puissant que nous ne pouvons plus faire confiance à nos propres yeux ».

Des femmes victimes de deepfakes

Malgré les arguments de Katz, le deepfake de la reine Elizabeth II fait actuellement l’objet d’une vive polémique. D’après The Guardian, les experts dans le domaine pensent que la vidéo « a donné l’impression que les deepfakes sont plus courants qu’ils ne le sont en réalité ».

En temps normal, les vidéos de ce genre sont utilisées pour entacher la réputation d’une femme à son insu. Certaines personnes malintentionnées réalisent par exemple des vidéos pornographiques en apposant le visage d’une femme sur le corps nu d’une autre. Sam Gregory, directeur du programme de Witness, a confirmé cette réalité en disant « nous n’avons pas encore vu de deepfakes largement utilisés, sauf pour attaquer des femmes ».

La société de surveillance Deepfake Sensity a en outre récemment eu connaissance de l’existence de plusieurs images de filles mineures nues générées par l’IA.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.