En 1969, à l’issue de la mission Apollo 11, le président Richard Nixon devait prononcer un discours devant le peuple américain. S’il n’allait faire qu’un seul speech, il devait en préparer deux. L’un des textes était celui qui a été finalement présenté publiquement par le président américain.
L’autre, écrit par le rédacteur de discours William Safire, était un discours de contingence qui devait être lu au cas où la mission échouait et que les astronautes y succombaient.
En exploitant les technologies de l’intelligence artificielle et de l’apprentissage automatique, les chercheurs du MIT ont créé une fausse vidéo de ce discours. Le rendu, qui s’avère troublant et dramatique, est censé sensibiliser sur le danger du « deepfake » ou hypertrucage. Se déroulant sur la voix d’un interprète vocal, la séquence est incroyablement réaliste.
La vidéo, intitulée « In Event of Moon Disaster », ou « En cas de catastrophe lunaire », s’inscrit dans le cadre d’une initiative du Center for Advanced Virtuality du MIT.
Elle est décrite comme un « projet de narration numérique ».
Le MIT a collaboré avec Respeecher et IA Canny AI
La vidéo de sept minutes commence par de véritables images d’Apollo 11. Elle montre ensuite une scène où l’alunissage échoue.
Pour parvenir à ce résultat, les chercheurs du MIT ont collaboré avec des spécialistes venant d’autres institutions. Afin de produire un discours synthétique, ils ont fait appel aux experts de Respeecher, qui est spécialisé dans la conversion vocale.
En outre, pour mimer les expressions faciales, telles que le mouvement de la bouche et des lèvres, ils ont recouru aux services d’IA Canny AI.
Voici un extrait du faux discours :
« D’autres suivront, et trouveront sûrement le chemin du retour. La recherche de l’homme ne sera pas refusée. Mais ces hommes ont été les premiers, et ils resteront les premiers dans nos cœurs. »
Un site web dédié
Halsey Burgund, codirectrice du projet, espère que la séquence servira à conscientiser le public sur les dangers que représente l’utilisation malveillante des technologies de l’IA. « Nous espérons que ce projet fera comprendre au public que les médias sont susceptibles d’être manipulés », a-t-elle souligné.
Le film a été sélectionné par plusieurs festivals de cinéma et a reçu un Creative Media Award de la part de la Fondation Mozilla. L’équipe a également lancé un site web qui présente l’ensemble des techniques employées pour sa réalisation.