Google supprime la notion de genre de l’IA en charge de l’analyse des images

L’outil Cloud Vision API de Google est un service que la compagnie propose aux développeurs. Il permet entre autres d’attacher des étiquettes aux photos en identifiant les éléments qui y sont présents. On peut dire que cette IA de Google est assez puissante puisqu’elle peut détecter toutes sortes de choses comme les visages, les logos, les contenus explicites, et elle peut même être utilisée pour identifier des espèces animales.

Récemment, la compagnie a envoyé un e-mail concernant le Cloud Vision API à ses développeurs. D’après ce qui est écrit dans le courrier électronique, l’IA ne précisera plus si une personne détectée dans une image est un homme ou une femme. À partir de maintenant, l’étiquette placée n’exprimera donc plus le genre, mais indiquera tout simplement « personne ».

Crédits Pixabay

Selon Google, la raison de cette décision est qu’il n’est pas possible d’identifier le genre de quelqu’un en se basant juste sur son apparence. Aussi, la compagnie a ajouté que placer le genre sur une photo pouvait augmenter les risques de préjugés injustes, ce qui est contraire aux principes gouvernant son IA.

Lutter contre les préjugés

Actuellement, les préjugés dans le domaine de l’intelligence artificielle font partie des sujets les plus discutés par les experts. Les chercheurs indiquent en effet que des données d’apprentissage machine erronées pouvaient aggraver ou créer des préjugés injustes.

Un des plus grands exemples par rapport au fait que l’IA peut engendrer plus de problèmes de préjugés est le cas de la reconnaissance faciale. Il y avait eu en effet un algorithme qui avait fait plus d’erreurs d’identification avec des personnes de couleur qu’avec des personnes caucasiennes.

Les principes de Google

Dans ses principes concernant l’intelligence artificielle, Google indique que les algorithmes et les bases de données peuvent renforcer les préjugés. La compagnie se déclare ainsi prête à lutter contre les impacts négatifs sur les utilisateurs, surtout ceux relatifs à des caractéristiques sensibles. On parle ici de la race, du genre, de la nationalité, de l’orientation sexuelle, de la religion etc.

Par rapport à cette affaire, Frederike Kaltheuner a donné son avis. Kaltheuner travaille chez Mozilla en tant que membre de la division politique technologique, et possède une expertise en préjugés dans le domaine de l’lA. Selon elle, ce changement appliqué par Google est très positif. Si l’on décide de classifier les gens, il faut tout d’abord décider des catégories à utiliser et ce processus implique d’utiliser un grand nombre d’hypothèses. Ainsi, dire qu’une personne est un homme ou une femme implique comme hypothèse qu’il n’existe que deux choix possibles. Ceux qui ne font pas partie de ces deux catégories seront donc mal classés. De plus, le genre d’une personne ne peut pas être défini par son apparence.

En tout cas, on attend l’opinion des développeurs qui sont les premiers concernés par cette mise à jour de Google. La compagnie les invite d’ailleurs à donner leur avis sur ses forums de discussion.

Mots-clés google