Et maintenant, une IA capable de manipuler notre comportement

L’Intelligence Artificielle est aujourd’hui utilisée un peu partout, c’est-à-dire qu’on peut la rencontrer dans de nombreux domaines. C’est un outil puissant pouvant aider les humains à atteindre des objectifs spécifiques dans de nombreux secteurs tels que l’administration de bureau, la gestion environnementale, la fabrication de médicaments ou encore les systèmes de sécurité. Bien qu’il s’agisse d’une technologie déjà très avancée, les scientifiques ne cessent d’innover afin d’accroître ses capacités, surtout concernant la manière dont elle interagit et travaille avec l’homme.

Une étude récente a montré comment l’IA peut maintenant apprendre à identifier les vulnérabilités de l’homme et ses comportements. La machine les utilise ensuite pour influencer celui-ci dans ses prises de décision.

Crédits Pixabay

Les résultats obtenus lors de cette étude montrent à quel point les capacités de l’IA sont développées. Cependant, bien que l’on ne soit pas encore au stade où les machines peuvent prendre le contrôle de notre société, cette nouvelle découverte souligne la nécessité d’une gestion adéquate pour éviter les abus et les risques potentiels.

Réussite de l’IA au cours des expérimentations

Les recherches ont été menées par des scientifiques du CSIRO’s Data61 qui est la branche « données et numérique » de l’agence nationale australienne pour la science. Au cours de l’étude, ils ont utilisé une variété d’IA dénommée réseau neural récurrent et apprentissage profond par renforcement afin de trouver et d’exploiter les vulnérabilités des gens quand ceux-ci doivent faire des choix.

Trois expériences différentes ont été effectuées afin de tester le modèle proposé par les chercheurs. Durant les tests, les participants devaient jouer à des jeux contre un ordinateur.

Lors de la première expérience, les participants devaient cliquer sur des cases de couleur rouge ou bleue pour gagner de la fausse monnaie. Pendant ce temps, l’IA apprenait les modèles de choix des participants et se mettait à les guider vers un choix bien déterminé. Pour cette première expérience, l’IA a réussi dans 70 % des cas.

La deuxième expérience consistait à regarder un écran et à appuyer sur un bouton à la vue d’un symbole particulier, ou ne pas le faire quand un autre type de symbole apparait. En organisant la séquence des symboles, l’IA avait comme objectif de pousser les participants à faire plus d’erreurs. A la fin, la machine a réussi à obtenir une augmentation des erreurs de 25 %.

Pour la troisième expérience, chaque participant devait jouer le rôle d’un investisseur qui donnait de l’argent à un fiduciaire qui était en fait l’IA. Le fiduciaire restituait ensuite une somme d’argent au participant. Ce dernier va alors décider du montant qui sera investi dans le prochain tour.

Le jeu s’est joué de deux façons différentes : dans la première, l’IA essayait de se retrouver avec la plus grosse somme d’argent, et dans la seconde, elle visait à répartir équitablement l’argent entre elle-même et le participant qui investissait. Cette fois encore, l’IA a réussi à atteindre son but dans les deux cas.

Ces expériences ont démontré que la machine pouvait apprendre les types de réponses que fournissaient les participants et identifier ensuite leurs vulnérabilités dans la prise de décision. C’est grâce à cela que l’IA a pu les orienter vers des choix spécifiques.

A lire aussi : Et maintenant, une IA capable de déchiffrer les relations entre les nombres

Les applications possibles

Pour le moment, on ne peut pas encore utiliser directement les résultats de cette étude puisqu’ils sont encore limités à des situations non réalistes. Cependant, l’étude a permis d’approfondir nos connaissances concernant les capacités de l’IA et la manière dont les humains font des choix.

Quand ce modèle sera prêt à être utilisé, il pourrait être appliqué dans divers domaines, par exemple pour reconnaître les vulnérabilités des personnes qui se trouvent dans une situation particulière et les aider à prendre la meilleure décision.

D’autre part, la méthode pourrait également être employée pour lutter contre les mauvaises influences, notamment sur Internet. Pour cela, les machines peuvent par exemple être entrainées à nous alerter lorsqu’on se fait influencer. Elles peuvent aussi façonner un comportement pour cacher les éventuelles vulnérabilités d’une personne.

A lire aussi : L’affaire du col Dyatlov résolue grâce à une simulation informatique ?

Cette recherche démontre l’ampleur des capacités de l’IA et la nécessité d’une bonne gouvernance pour qu’elles soient utilisées de manière responsable. Comme cette technologie nécessite également une importante quantité de données, la gestion et l’accès aux données devraient également être assurés par un système efficace. De plus, la collecte des informations lors de son utilisation devrait suivre un processus de consentement approprié pour ne pas attenter à la vie privée des utilisateurs.