Une étude de l'Université de Harrisburg (Pennsylvanie) que la maison d'édition scientifique Springer se prépare à publier crée l'émoi en Allemagne. Dans cet article, des chercheurs affirment avoir développé un logiciel de reconnaissance faciale capable de prévenir les crimes.
Ils estiment même que le système pourrait prédire si quelqu'un va commettre un crime sur la base d'une seule photographie, avec un taux de réussite de 80%. D'après eux, le système serait par ailleurs dépourvu de tout préjugé racial.
Mais pour les signataires de la lettre ouverte, ce système et les postulats qui l'accompagnent sont la parfaite illustration des dérives et des dangers de l'intelligence artificielle.
Les algorithmes, produit d'une société qui a un biais racial
"Les données reflètent les nombreux biais propres à notre société. Chaque statistique, chaque base de données que nous utilisons fait l'objet d'un certain biais. Le fait que ces chercheurs affirment qu'il n'y a pas de biais dans leur système est vraiment ce qui nous alarme. Ils essaient d'utiliser les statistiques pour faire croire à une plus grande objectivité alors que les données qui servent à former les algorithmes sont le produit d'une société qui a un biais racial."
Le biais racial, c'est notamment ce que dénoncent certains manifestants du mouvement Black Lives Matter. En cela, les ambitions des chercheurs de Harrisburg ne sont pas sans rappeler celles de la phrénologie.
Très populaire au 19ème siècle en particulier, la phrénologie avançait que l'on pouvait identifier les capacités intellectuelles et le caractère des individus en fonction de la forme de leur crâne. Elle a par la suite été dénoncée comme une pseudo-science.
Katja Schaer
Un Afro-Américain arrêté par erreur à cause de la reconnaissance faciale
Un Afro-Américain a été arrêté à tort à cause de l'usage par la police de la technologie de reconnaissance faciale, la première erreur de ce type documentée aux Etats-Unis, selon une plainte déposée mercredi à Détroit.
Début janvier, Robert Williams a passé 30 heures en détention parce qu'un logiciel avait jugé identique la photo de son permis de conduire et l'image d'un voleur de montres capturée par des caméras de surveillance, selon cette plainte.
Depuis la résurgence du mouvement Black Lives Matter ces dernières semaines, plusieurs entreprises comme Amazon, IBM ou Microsoft ont décidé de suspendre la vente de ces logiciels d'identification à la police, tant que des règles claires n'auront pas été fixées.
Mercredi, le conseil municipal de la ville de Boston, sur la côte atlantique, a également voté l'interdiction pour les agents municipaux d'utiliser la reconnaissance faciale, devenant la deuxième plus grosse ville au monde après San Francisco à prendre cette décision.