
Une IA équitable grâce à l’apprentissage automatique ?
Les modèles d’IA sont entraînés à l’aide d’un grand nombre d’informations. Selon des chercheurs, leurs prédictions peuvent être erronées lorsque ces données ne sont pas équilibrées. Récemment, une recherche a conduit à la découverte d’une nouvelle méthode qui améliore la capacité des systèmes d’IA à réduire les biais, même si les informations utilisées ne sont pas équilibrées.
Des chercheurs du MIT ont découvert que les IA utilisées pour des tâches de reconnaissance de formes ne fonctionnent pas lorsqu’elles sont entraînées avec des données biaisées. Cette distorsion du modèle ne peut être corrigée par les méthodes d’amélioration de la précision ou par une rééducation du modèle avec des données équilibrées.
Pour les scientifiques, la solution à trouver doit permettre aux modèles d’établir des prédictions plus équilibrées et d’améliorer leurs performances. Les résultats de la recherche seront présentés lors de la conférence internationale sur l’apprentissage des représentations.
De l’apprentissage métrique profond
L’éducation automatique examinée dans cette étude est connue sous le nom d’apprentissage métrique profond, qui constitue un mode de formation typique. En l’étudiant, les scientifiques ont remarqué que le réseau neuronal apprend les similitudes entre les objets en comparant des images similaires avec d’autres images.
En effet, ce réseau compare des images dans un espace d’intégration où une métrique de similarité entre les photos correspond à la distance qui les sépare.
Ainsi, ces scientifiques affirment qu’avec ce processus d’apprentissage, le modèle d’IA présenterait une mesure de similarité biaisée. Par exemple, lors de la reconnaissance faciale, si deux individus quelconques ont des couleurs de peau semblable, la mesure est objective, même s’il ne s’agit pas des personnes de la même race.
De plus, si les caractéristiques utilisées par l’IA pour mesurer la ressemblance sont meilleures pour la majorité des personnes dans une population, alors les prédictions seront injustes.
Apprendre des métriques distinctes
La solution des chercheurs, nommée décorrélation partielle d’attributs, consiste à former le modèle à apprendre de nouvelles métriques de similarité pour les attributs sensibles. Une fois que le modèle a étudié les mesures de similarité pour différents visages humains, il serait en mesure de rapprocher des visages similaires et exclut ceux qui diffèrent.
Par ailleurs, il est possible de faire correspondre un nombre quelconque de caractéristiques importantes à la métrique de similarité souhaitée. Pour ce faire, les chercheurs ont testé la méthode sur la reconnaissance des visages et la classification des oiseaux. Ils ont constaté que, quel que soit l’ensemble de données utilisées, les différences de résultats dues à un biais dans l’espace d’incorporation d’intégration pouvaient être réduites.
SOURCE : SCITECHDAILY