Ces logiciels puisent notamment dans les photos partagées sur les réseaux sociaux. "Je crois que je suis encore traumatisé aujourd'hui", a témoigné un habitant mercredi dans La Matinale. Dix mois après ce qui lui est arrivé, il a encore du mal à oublier. L'été dernier, alors qu'il rentre d'une manifestation "Black Lives Matter", il se réveille avec une cinquantaine de policiers lourdement armés encerclant son appartement.
"Ils avaient des 'snipers' sur les toits, c'était comme dans un film. Il y avait des lasers rouges qui traversaient mes fenêtres, ils avaient des drones dans le ciel, des chiens devant ma porte, ils essayaient de la forcer avec un bélier, ça a laissé des traces sur ma porte. A ce moment-là, j'étais persuadé que j'allais mourir".
Reconnaissance faciale
L'homme diffuse le tout sur les réseaux sociaux et les médias seront alertés. Le siège aura duré cinq heures. La police ne présentera jamais de mandat, mais accuse cet homme d'avoir agressé un policier lors d'une manifestation. Au-delà de l'opération musclée, une information crée la polémique: si la police a réussi à identifier et localiser cette personne, c'est grâce à la reconnaissance faciale.
A New York, la police dispose de plus de 20'000 caméras de surveillance, et selon une récente enquête d'Amnesty International, ces caméras sont désormais utilisées avec des logiciels de reconnaissance faciale capables de suivre à la trace et d'identifier n'importe qui. "A tout moment, sans savoir que vous êtes suspecté d'un crime, vous pouvez vous retrouver dans une salle d'identification virtuelle où vos photos de vous sont comparées à d'autres", explique Matt Mahmoudi, chercheur en intelligence artificielle à Amnesty International.
Risque pour la vie privée
Pour lui, c'est un risque pour la vie privée ou le droit de manifester. Cette technologie risque aussi, selon lui, d'amener à des arrestations par erreur, surtout lorsqu'il s'agit des minorités. "Entre 30 et 60%, parfois jusqu'à 90% des résultats obtenus par ces logiciels sont des faux positifs. Vous aurez une identification qui semble précise d'une personne noire à partir d'une photo de vidéo-surveillance capturée dans la rue et une autre d'une base de données. Et en réalité, ce n'est pas du tout la même personne. C'est juste que ces logiciels reconnaissent moins bien les personnes de couleur".
>> Lire à ce propos : Le documentaire "Coded Bias" révèle la discrimination des algorithmes
La police refuse tout commentaire
Contactée pour s'exprimer sur le sujet, la police de New York a refusé tout commentaire. Le seul qui a accepté est Huan Ton-That, le patron d'un des logiciels utilisés par la police. Pour lui, il s'agit avant tout d'un outil pour aider les enquêteurs: "C'est mieux d'avoir directement le nom de la personne plutôt que de lancer un avis de recherche basé uniquement sur une description. On peut donner plus d'informations et ça va diminuer les interactions inutiles avec la police".
Il assure que des contrôles sont en place pour éviter au maximum les abus éventuels. De son côté, la victime du siège de son appartement, qui estime que sa mésaventure a eu des effets nocifs sur sa vie, a décidé de porter plainte contre le Département de police.
Sujet radio: Loubna Anaki
Adaptation web: Jean-Philippe Rutz