Une IA pour détecter les images pédopornographiques

Dans un mouvement considéré comme humanitaire par la police britannique, le département de médecine légale numérique de la Metropolitan Police (MET) a créé une nouvelle IA. Ce système a pour but de trier les images troublantes impliquant la maltraitance des enfants et la pédophilie. Selon plusieurs rapports, le tri physique de ce type d’images par les policiers aurait  causé d’importants traumatismes aux agents.

L’intelligence artificielle pourrait donc bientôt prendre en charge la tâche traumatisante du tri des images d’abus d’enfants, une tâche habituellement effectuée par des policiers. Un projet pilote permettra à l’IA d’apprendre à évaluer la sévérité des photos et des séquences perturbantes, évitant ainsi aux détectives d’être confrontés à cette tâche pénible.

Poursuite Police

Actuellement, l’IA utilisée par la police métropolitaine n’est pas encore au point et est encline à confondre des images du désert avec des corps nus.

Le projet ambitieux de la MET

Un logiciel de reconnaissance d’images est déjà utilisé par le département de médecine légale de la police métropolitaine. Cette application a permis de trouver  au cours de l’année 2017 plus de 53 000 dispositifs contenant des preuves incriminantes d’images pédopornographiques.

Malheureusement, les systèmes utilisés ne sont pas encore assez sophistiqués pour repérer des images et des vidéos indécentes.

Des programmes sont en cours de développement pour déplacer les données sensibles collectées par la police vers des fournisseurs de cloud tels que Google et Microsoft.

Du projet à la réalisation : les limites

Pour le moment, le logiciel actuel est efficace pour identifier les drogues, les armes et l’argent lors de l’analyse du contenu d’un ordinateur, d’une tablette ou d’un téléphone. « Quand il s’agit de la nudité, cependant, l’identification devient un peu problématique. » explique un porte-parole de MET.

Le logiciel peut confondre les images d’un désert et de la peau humaine.

Actuellement, les images obtenues par le MET sont stockées dans un centre de stockage de serveurs à Londres. Selon les rapports, cette méthode a été soumise à des contraintes croissantes en raison du volume important du nombre d’images reçues.

Une utilisation des solutions de stockage en ligne est envisagée par la MET, mais l’accès aux comptes cloud pose encore problème.

Le système d’IA anti-pédopornographie n’en est pour le moment qu’au stade de projet, mais la MET promet que leur logiciel sera parfaitement fonctionnel d’ici deux ans.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.