L’intelligence artificielle biaisée, un dangereux outil de discrimination et d’injustice

Lorsque les algorithmes d’apprentissage automatique sont biaisés, ils représentent un véritable danger pour les humains. C’est en tout cas ce que reflète un article publié par The Next Web.

L’intelligence artificielle peut être utilisée pour simplifier le quotidien des êtres humains, notamment dans la gestion des tâches quotidiennes et pour certaines activités professionnelles. Néanmoins, le problème se trouve dans le fait de déléguer trop de pouvoir de décision à une machine qui ne sert qu’à suivre un modèle.

C’est le cas, par exemple, des algorithmes COMPAS, une intelligence artificielle qui a servi à condamner des criminels sur la base de plusieurs critères, notamment, celui de la culture. Ce système a été dénoncé par Pro-Publica à travers un article publié en 2016 et a ouvert un grand débat.

Les algorithmes d’apprentissage artificiel jugeraient en effet injustement les personnes en fonction de leurs revenus, de la couleur de leur peau et de leur sexualité.

Trop de pouvoir aux intelligences artificielles

L’écrivaine Elizabeth Rico a écrit un article dans lequel elle raconte sa terrible expérience avec un logiciel d’analyse prédictive injuste qui a incité un enquêteur des services sociaux à lui retirer ses enfants.

Dans son article publié sur UNDARK, elle reproche aux services sociaux de s’attaquer, intentionnellement ou non, aux personnes pauvres.

Elle déclare entre autres que « Les 131 indicateurs qui alimentent l’algorithme incluent les enregistrements relatifs à l’inscription à Medicaid et à d’autres programmes d’assistance fédéraux ainsi que les dossiers de santé publique concernant les traitements pour la santé mentale et la toxicomanie. »

Les algorithmes épargnent les blancs et les riches

Le rapport de 2016 de ProPublica indiquait que l’algorithme d’apprentissage automatique prédisait un risque de récidive plus élevé en fonction du teint de la personne. En d’autres termes, les personnes blanches, hétérosexuelles et riches, étaient moins susceptibles d’être victimes de discrimination et d’injustice.

De plus, les chercheurs de Stanford ont conçu un algorithme censé prédire l’orientation sexuelle d’une personne. Bien que le laboratoire d’apprentissage automatique de Stanford ne semble pas vouloir l’utiliser à mauvais escient, le gouvernement fédéral dirigé par le GOP n’accepte pas les personnes LBGTQ+ et oblige les candidats au service militaire à passer sous le « gaydar. »

En fin de compte, l’utilisation d’algorithmes biaisés est une profonde erreur qui ne fera que perpétuer la marginalisation des minorités.

Source : https://thenextweb.com/artificial-intelligence/2018/09/21/artificial-intelligence-hates-the-poor-and-disenfranchised/