Des achats in-app pour les futurs robots sexuels ?

Au cours d’une interview donnée à The Guardian, le Dr Kate Darling, chercheuse spécialiste de l’interaction entre humains et robots, de l’éthique des robots, ainsi que de la théorie et la politique de la propriété intellectuelle au Media Lab du Massachusetts Institute of Technology (MIT), a émis un avertissement.

Cet avertissement concerne la façon dont les humains perçoivent les robots, c’est-à-dire comment on pense à eux, ou encore comment on parle d’eux. Selon elle, avec la manière dont on essaie de recréer l’humanité lorsqu’on fabrique des robots, on pourrait finir par se faire manipuler ou se faire exploiter.

Crédits Pixabay

Darling explique que souvent, on compare inconsciemment les robots aux humains et l’IA à l’intelligence humaine, et cette comparaison va limiter notre imagination. Mais surtout, il peut arriver que l’on finisse par se lier émotionnellement aux robots sociaux, et il y aura des entreprises qui vont profiter de la situation pour nous manipuler. La chercheuse cite ainsi l’exemple d’un robot sexuel qui pourrait profiter d’un moment d’intimité pour proposer des achats in-app. C’est la même chose qu’avec les publicités subliminales se trouvant à des endroits spécifiques.

Selon Darling, il serait mieux de considérer les robots comme on considère les animaux qui nous aident dans nos tâches quotidiennes.

Fuir les responsabilités

D’après Darling, l’un des problèmes de l’humanisation des robots est que les entreprises qui développent les algorithmes de l’IA ou encore les systèmes similaires aux humains vont essayer de fuir leurs responsabilités lorsqu’il y aura des problèmes.

Cette responsabilité sera rejetée sur le robot ou l’algorithme si l’on continue de mettre les machines au même niveau que les humains.

Darling cite l’exemple du cycliste qui s’est fait tuer par une voiture à conduite autonome d’Uber en 2018. Lors de cet accident, le conducteur secondaire, c’est-à-dire le robot, a été tenu responsable à la place du constructeur. Ce dernier s’est en effet défendu en indiquant que l’entreprise ne devait pas être tenue responsable par rapport à une technologie d’apprentissage puisqu’elle ne peut humainement et techniquement pas prévoir ou programmer toutes les possibilités.

Pensez plutôt aux animaux

Pour Darling, la solution de ce problème d’humanisation serait de traiter les robots et l’IA de la même façon que les animaux. L’idée ici est de comprendre que peu importe la raison de l’utilisation des machines, ce sera toujours différent de ce que les humains peuvent faire. Selon elle, utiliser cette approche dans les relations avec les robots assurera une expérience plus bénéfique et moins manipulatrice.

La chercheuse a précisé que les animaux et les robots n’étaient pas les mêmes, mais l’analogie permet de nous éloigner de la tendance à mettre les humains et les robots sur un même pied d’égalité.

En tout cas, avec le progrès rapide de la robotique et de l’IA, chaque avertissement est toujours bon à prendre pour éviter les problèmes dans le futur, même si c’est juste pour ne pas se faire manipuler par des robots sexuels.

Mots-clés nsfy