Dans la société actuelle, plusieurs sont ceux qui considèrent que l’évolution des technologies surpasse celle des structures sociales. Il s’agit des structures, comme le droit et l’éthique, qui guident et encadrent implicitement les technologies. L’intelligence artificielle (IA), par exemple, s’impose comme une nécessité dans la vie quotidienne de nombreuses personnes. Pourtant, sa complexité par rapport aux autres technologies plus familières suscite parfois la peur et la suspicion.
Pour les développeurs et les modérateurs d’IA, savoir comment et qui s’en méfie peut donc leur être pratique. Mieux comprendre le public leur permettrait d’agir en conséquence. D’ailleurs, des chercheurs de l’Université de Tokyo ont voulu savoir de quelle manière des caractéristiques démographiques, l’éducation ainsi que divers scénarios éthiques affectent l’attitude du public vis-à-vis de l’IA.
Au cours de cette étude, le groupe de scientifiques a conçu un indicateur visuel octogonal, similaire à un système de notation. Les chercheurs en IA pourraient s’en servir pour connaître de quelle façon le public pourrait percevoir leur travail.
Un octogone formé par huit thèmes
Le professeur Hiromi Yokoyama de l’Institut Kavli pour la physique et les mathématiques de l’univers a dirigé l’équipe de scientifiques de l’Université de Tokyo durant l’étude. Pour leurs recherches, ils ont décidé de déterminer le point de vue du public sur l’IA concernant des questions éthiques.
Dans le cadre de leur travail, le groupe s’est surtout concentré sur deux points durant les enquêtes qu’il a menées. La première consiste à savoir comment la vision des personnes interrogées changent selon les circonstances. La dernière se focalise sur la perception d’une personne en fonction de diverses variables, comme son sexe et son âge.
Ensuite, pour concevoir leurs questionnaires, l’équipe a utilisé huit thèmes qu’il a regroupés sous le nom de « mesures de l’octogone ». Les thèmes en question soulèvent des questions éthiques et concernent plusieurs applications basées sur l’intelligence artificielle. Ils ont été inspirés par un article que Jessica Fjeld (chercheuse à l’université de Harvard) et son équipe ont sorti en 2020. Parmi ces sujets figurent la vie privée, la sécurité, la transparence et la promotion des valeurs humaines.
Les personnes âgées et les femmes auraient une vision plus négative de l’IA
Les personnes à avoir participé à l’enquête ont traité quatre scénarios : l’art généré par l’IA, l’IA dans le service à la clientèle, la prédiction de crimes et les armes autonomes. Par ailleurs, les participants ont également fourni des informations sur eux, dont leur niveau d’intérêt pour la science et la technologie. De cette manière, les chercheurs ont pu associer des attitudes à des caractéristiques d’individus.
« Des études antérieures ont montré que le risque est perçu plus négativement par les femmes, les personnes âgées et celles qui ont plus de connaissances en la matière. Je m’attendais à voir quelque chose de différent dans cette enquête compte tenu de la banalisation de l’IA, mais étonnamment, nous avons vu des tendances similaires ici. »
Le Pr Hiromi Yokoyama