Grâce à vos yeux, on peut savoir si vous existez réellement

La réalité a toujours été sujette à débat, mais c’est encore plus vrai aujourd’hui avec toutes les innovations de ces dernières années. Grâce à l’IA et à des technologies éprouvées, il est en effet possible de transformer des photos ou des vidéos, mais aussi des flux diffusés en direct.

Ce qui nous amène finalement à une question : comment faire la différence entre ce qui est réel et ce qui ne l’est pas ?

L'oeil d'une femme
Image par Aline Berry de Pixabay

Des chercheurs pensent avoir trouvé une piste. Et elle se trouve dans nos yeux. Explications.

Les yeux pour distinguer le réel de l’artificiel

Le deepfake a marqué une rupture dans notre rapport à la réalité. Désormais, nous savons en effet que tout, absolument tout, peut être manipulé : des photos, des vidéos, des discours, des conférences et même des conversations tenues en streaming.

C’est évidemment un problème, un problème qui risque de prendre de l’ampleur au fil de ces prochaines années et à mesure que les IA spécialisées deviendront plus sophistiquées. Plus que jamais, il est donc impératif de trouver des solutions pour nous aider à faire la distinction entre des scènes réelles et des scènes générées par le biais d’un ordinateur.

Il faudra sans doute quelques années pour parvenir à une solution exploitable, mais un chercheur de l’Université d’Etat de New York pense tenir un début de piste.

A lire aussi : Ce site peut déshabiller n’importe quelle photo avec le deepfake porn

Une histoire de pupille

Et ce début de piste le conduit directement dans nos yeux. Plus précisément dans la forme de la pupille.

Lorsque nous regardons une personne, un ensemble de signaux circulent à travers notre système visuel. Des signaux qui génèrent des réactions biologiques visibles. Ce n’est bien entendu pas le cas des individus générés numériquement et c’est précisément grâce à cette différence que nous devrions être en mesure de distinguer le réel de l’artificiel.

Pour en venir à cette conclusion, les chercheurs se sont appuyés sur une série de plusieurs faux visages générés par un système d’apprentissage automatique, soit un réseau antagoniste génératif (GAN).

Le GAN forme en réalité une classe d’algorithmes d’apprentissage non supervisé et il repose ainsi sur un modèle génératif où deux réseaux distincts sont mis en compétition à l’occasion d’un scénario spécifique.

A lire aussi : Quand des vidéos deepfake permettent de décrocher un emploi chez Lucasfilm

Explications sur les GAN

Plus concrètement, le premier réseau va générer des échantillons tandis que le second va tenter de détecter si ce dernier est réel ou s’il a été généré. Cette technique permet aux réseaux antagonistes de s’affiner et de gagner en efficacité.

En analysant les images générées par ce biais, les chercheurs de l’Université d’Etat de New York ont fait une découverte pour le moins surprenante.

Ils ont en effet constaté que les faux portraits générés présentaient un défaut au niveau des pupilles : elles n’étaient pas complètement rondes.

A lire aussi : Le deepfake porn, une future épidémie ?

Des résultats parfaits

La raison de cette différence incombe selon eux à des artefacts visibles qui viennent déformer la pupille. Des artefacts générés par le GAN et qui sont dus selon eux à un manque de connaissance de l’anatomie de l’oeil humain. Partant de ce constat, les chercheurs ont donc développé un outil d’analyse et ce dernier semble avoir obtenu de bons résultats.

En le confrontant à une bibliothèque composée de 2 000 images, et plus précisément à 1 000 portraits réels et à 1 000 portraits artificiels, l’outil a ainsi obtenu un score parfait. Vous pouvez consulter les résultats de l’étude à cette adresse.

D’après eux, donc, leur outil serait en mesure de distinguer les contenus réels des deepfakes générés par le biais d’IA. Toute la question étant bien entendu de savoir si les IA utilisées pour générer des contenus artificielles ne finiront pas par colmater la brèche.