Le Xinjiang est une province de l'extrême nord-ouest de la Chine, une région où plus d’un million de membres des minorités musulmanes seraient enfermés dans des camps de rééducation. Or, le rapport de Human Rights Watch publié jeudi révèle que pas moins de 36 catégories d’individus sont ciblées automatiquement par un algorithme, un profilage poussé à l’extrême grâce aux dernières technologies liées à l’intelligence artificielle.
L’application en question croise toute sortes de données récoltées notamment par les forces de l’ordre dans la rue, les hôpitaux ou lors de visites à domicile. Des données comme l'ethnicité, la taille, le groupe sanguin, la religion, mais aussi les déplacements, les contacts et plus généralement les comportements de chacun sont prises en compte.
Individus à surveiller
Le système permet d'identifier les individus à surveiller: ceux qui prêchent l’islam, fréquentent les mosquées ou encore qui rentrent d’un voyage à l’étranger ou préparent un déplacement.
Human Rights Watch et de nombreux organismes internationaux dénoncent ce profilage depuis des mois, mais cette fois-ci l'ONG a pu formellement définir et prouver les critères de ciblages.
Risques d'extension
Après s’être procurés une version de l’application en février 2018, ses spécialistes l’ont analysé pour mettre en lumière son fonctionnement précis. Et Human Rights Watch alerte aujourd’hui au-delà de la situation au Xinjiang car elle soupçonne Pékin de vouloir étendre ce système à d’autres zones du pays.
L’organisation demande donc aux gouvernements étrangers de prendre conscience du risque d'exploitation des données personnelles, de manière à éviter de voir ce modèle s’exporter.
Michael Peuker/pym