Aux Pays-Bas, les autorités essayent de prédire les crimes avec des algorithmes

Aux Pays-Bas, les autorités font appel aux nouvelles technologies pour assurer la sécurité des habitants. D’après le site Vice, la police néerlandaise utilise actuellement des algorithmes qui sont capables de prédire les crimes. Ce système de « police prédictive » a été testé à Amsterdam en 2014. Il a ensuite été déployé à l’échelle nationale en 2017.

Dans la ville de Roermond, aux Pays-Bas, la police a mis en place un projet baptisé Sensing Project. Il se base sur un système qui capture en image les plaques d’immatriculation, la marque, le modèle et l’année de production des véhicules des habitants. Ces données sont ensuite soumises à un algorithme qui évalue les risques d’infraction et qui les transmet directement à la police qui pourra décider d’ouvrir ou non une enquête.

Les gyrophares d'une voiture de police
Crédits Pixabay

L’utilisation de cette technologie n’est pas vue d’un bon œil par tout le monde. En septembre 2020, Amnesty International a publié un communiqué dans lequel il appelle la police néerlandaise à cesser l’utilisation de ces systèmes algorithmiques.

Un système qui favorise la discrimination

D’après Amnesty International, le système de police prédictif est intrusif et discriminatoire. Après avoir enquêté sur le Sensing Project, l’ONG a déclaré qu’il s’agissait d’une « expérimentation policière qui traite les habitants de Roermond comme des cobayes soumis à une surveillance de masse et qui cible de façon discriminatoire les personnes originaires de pays de l’Europe de l’Est. »

Merel Koning, responsable de la politique sur les technologies et les droits humains à Amnesty International, estime que c’est « une surveillance de masse sans discernement, qui ne peut être justifiée. » L’organisation va plus loin en accusant les projets de police prédictive de violations des droits de l’Homme. Ils « bafouent de toute évidence le droit au respect de la vie privée, le droit à la protection des données et les principes de légalité et de non-discrimination. »

Les personnes à faibles revenus ciblées

Ces systèmes sont aussi accusés de cibler injustement les personnes à faibles revenus. Par exemple, les autorités néerlandaises ont utilisé des algorithmes automatisés dans un système baptisé SyRI (System Risk Indication) qui est conçu pour prédire les fraudes.

Ce dispositif a été critiqué par un représentant des Nations-Unies qui a déclaré qu’il se basait sur des paramètres qui visent les minorités ethniques et les gens à faibles revenus. Dans son communiqué, Amnesty International a déclaré que « les autorités néerlandaises doivent appeler à interrompre le Sensing Project et toutes les expérimentations similaires. »

En dépit de ces nombreuses critiques, les projets de police prédictive continuent de gagner du terrain aux Pays-Bas.

La dernière vidéo de la chaîne

Si vous aimez les produits tech, alors n’hésitez pas à nous rejoindre sur notre chaîne YouTube.

Le dernier test publié sur la chaîne, le test des Reno4 et Reno 4 Pro de Oppo

La Fredzone est également sur Google Actualités, pensez à vous abonner à notre flux !