Et si le Deepfake permettait de contrôler les choses par la pensée ?

Des chercheurs de l’USC Viterbi School of Engineering utilisent des réseaux contradictoires génératifs (GAN) pour concevoir des vidéos deepfake et des visages humains photo-réalistes. Ils viseraient à rendre meilleures les interfaces cerveau-ordinateurs pour les personnes handicapées. L’équipe a réussi à inculquer à une Intelligence Artificielle (IA) la production de données synthétiques sur l’activité cérébrale.

Des mains qui contrôlent indirectement une cuillère.

Dans un article publié dans Nature Biomedical Engineering, les chercheurs expliquent que les données, plus principalement les signaux neuronaux nommés « trains de pointes », peuvent être insérées dans des algorithmes d’apprentissage automatique. Cela permettrait d’améliorer pour améliorer la convivialité des Interfaces Neuronales Directes, également appelées Interfaces Cerveau-Ordinateur (BCI).

Ces BCI analysent les signaux cérébraux d’une personne et convertissent cette activité neuronale en commandes. Cela pourrait permettre à l’utilisateur de contrôler des appareils numériques en se servant uniquement de leurs pensées.

Quelques défis sont à relever !

Plusieurs formes de BCI sont déjà disponibles, comme les capuchons qui évaluent les signaux cérébraux via des dispositifs implantés dans les tissus cérébraux. Des cas d’utilisations allant de la neuroréadaptation au traitement de la dépression ont déjà eu lieu. Pourtant, il demeure difficile de rendre ces systèmes assez rapides et robustes pour d’autres applications.

Plus précisément, pour donner un sens à leurs entrées, les BCI ont besoin d’une grande quantité de données neuronales et de longues périodes d’apprentissage, d’éducation, et d’étalonnage. Avoir suffisamment de données pour les algorithmes qui alimentent les BCI est compliqué, coûteux, voire impossible si les individus paralysés n’arrivent pas à produire des signaux cérébraux suffisants. En plus, cette technologie devra être créée différemment pour chaque personne.

Et si l’on concevait des données neurologiques synthétiques ?

En entrant dans les Réseaux Antagonistes Génératifs (GAN) pour générer des contrefaçons profondes, il serait possible de constituer un nombre presque illimité de nouvelles images similaires en exécutant un processus d’erreurs et d’essais.

Dans une expérience, les chercheurs ont entraîné un synthétiseur de pointes de deep learning avec une session de données enregistrées à partir d’un singe cherchant un objet. Tout cela pour créer des données d’entraînement pour les BCI.

Le synthétiseur a ensuite été utilisé pour constituer de grandes quantités de données neuronales similaires, bien que fausses. Puis, ils ont accommodé les données avec de petites quantités de nouvelles données réelles pour former un BCI. Les données neuronales synthétisées par le GAN ont amélioré jusqu’à 20 fois la vitesse d’entraînement globale d’un BCI. L’IA reçoit ainsi de la pensée ou du mouvement à travers la création de trains de pointes synthétiques.

De plus, après une formation sur une session expérimentale, le système s’est adapté à de nouveaux sujets ou sessions, en utilisant des données neuronales supplémentaires limitées.