Modifié

La reconnaissance faciale est-elle vraiment sûre ?

Les masques utilisés par les chercheurs de l'Idiap pour déjouer les systèmes de reconnaissance faciales. [Idiap]
L'envers de la reconnaissance faciale / Tout un monde / 7 min. / le 22 mars 2023
La reconnaissance faciale est de plus en plus présente dans nos vies, mais cette technologie est-elle vraiment sûre? Des hackeurs éthiques travaillent pour trouver ses failles et développer des solutions pour la rendre plus robuste face aux attaques.

La reconnaissance faciale s’immisce petit à petit dans nos vies. Paiement sur internet, portes d’entrée, passage de douane, vidéosurveillance… Cette technologie nous authentifie et nous identifie. Mais est-elle vraiment sûre? Peut-elle se tromper? Et surtout, peut-on la tromper?

Des chercheurs se sont donné pour mission de répondre à ces questions. Dans une petite pièce sécurisée du sous-sol de l’Idiap, un institut de recherche affilié à l’EPFL basé à Martigny en Valais, le professeur Sébastien Marcel dirige le groupe de recherche sur la biométrie, la sécurité et la confidentialité. Sur les étagères s’alignent des dizaines de masques réalistes, voire hyper réalistes.

"Il y a un peu plus de dix ans, j’ai commencé à travailler sur un nouveau sujet de recherche qui consistait à voir si les systèmes de reconnaissance biométrique tels que la reconnaissance faciale ou vocale pouvaient être trompés", explique Sébastien Marcel.

"Nous avons commencé par des attaques très basiques, comme présenter des feuilles de papier devant une caméra et nous avons constaté que cela fonctionnait très bien. Par la suite, nous avons travaillé sur des attaques de plus en plus complexes comme les masques 3D".

Aujourd’hui, ces masques sont utilisés pour tromper les systèmes de reconnaissance faciale. On peut y installer de faux yeux ou de faux iris. Les masques en silicone, très fins, permettent même de tromper l’imagerie thermique.

Certifier les systèmes

Les entreprises viennent du monde entier pour faire tester leur matériel par ces chercheurs. Leur objectif: avoir une reconnaissance faciale performante pour détecter un visage tout en étant robuste pour résister aux attaques.

Mais les masques ne sont pas la seule menace pour l’authentification numérique. Les deepfakes utilisent l’intelligence artificielle pour tromper les gens ou les machines. Ces techniques permettent à une personne de se faire passer pour une autre en utilisant un filtre numérique sur son visage et en parlant avec un clone de sa voix.

L’illusion est désormais possible quasiment en temps réel. La technique n’est pas à la portée du premier venu, mais c’est possible en recourant notamment à des programmes trouvés sur le darkweb. Un travail de quelques mois pour un ingénieur, selon Sébastien Marcel.

Fusionner les visages

Mais il existe un autre type d’attaque qui se déroule bien avant l’utilisation de la reconnaissance faciale, au moment où le citoyen apporte une photo à son administration pour obtenir un document officiel (ce n’est plus le cas en Suisse, ndlr).

C’est l’attaque de type morphing. Concrètement, en fusionnant les photos de deux visage (morph), les individus peuvent partager le même passeport. Le système de reconnaissance faciale pourrait reconnaître ces deux individus comme étant celui sur le passeport.

La femme du milieu n'existe pas! Il s'agit d'une fusion (morph) entre le visage de gauche et celui de droite. En présentant la photo du milieu, les deux personnes peuvent potentiellement être reconnues par l'intelligence artificielle et passer une douane. Cet exemple, tiré d'une étude, a été présenté par Europol. [Europol]
La femme du milieu n'existe pas! Il s'agit d'une fusion (morph) entre le visage de gauche et celui de droite. En présentant la photo du milieu, les deux personnes peuvent potentiellement être reconnues par l'intelligence artificielle et passer une douane. Cet exemple, tiré d'une étude, a été présenté par Europol. [Europol]

"Ce n’est pas totalement invisible car il existe maintenant des travaux qui permettent de détecter les morphs. Des solutions existent pour vérifier si une pièce d’identité est un morphe ou non, mais elles doivent être déployées par les agences concernées.”

La somme de connaissances accumulées par les chercheurs de Martigny leur permet également de développer leurs propres systèmes.

Comme un capteur biométrique d’un nouveau type. Fini les empreintes digitales, l’appareil s’intéresse aux veines de la main.

"L’idée ici est de faire une capture biométrique de la main de manière hygiénique sans contact. Une fois les doigts et la paume localisés, on peut extraire la structure des veines par imagerie infrarouge et l’utiliser pour l’authentification".

En attendant les outils de détection

Ces informations soulignent la nécessité d’avoir des outils fiables pour distinguer le vrai du faux dans le monde numérique. Nous entrons dans l’ère des identités numériques où la différence entre la réalité et le virtuel devient de plus en plus floue.

“Nous avons maintenant besoin d’outils automatiques de modération, ou qui aideront la modération humaine", estime Sébastien Marcel.

"Il s’agit d’analyser le contenu vidéo et audio pour, au moins, signaler à l’utilisateur s’il y a une suspicion que le contenu est vrai ou faux. Cela a de nombreuses applications, notamment pour garantir l’âge des personnes sur internet".

Dans une conversation vidéo, comment être certain de l’âge de son interlocuteur alors que l’on sait qu’il existe des filtres numériques réalistes pour vieillir les visages?

Une réponse technique doit être apportée, mais aussi politique. Face à ces menaces croissantes, l’Europe se prépare à réglementer l’intelligence artificielle selon les risques qu’elle représente. Le nouveau règlement européen sur l’intelligence artificielle pourrait entrer en vigueur l’année prochaine, voire en 2025.

Pascal Wassmer

Publié Modifié