Le fonctionnement des systèmes de biométrie faciale, vocale et linguistique est "loin d'être infaillible", relève la Fondation pour l'évaluation des choix technologiques.
La reconnaissance automatique des visages identifie avec moins de précision les femmes et les personnes à la peau foncée, qu'un homme blanc. "D'autres applications ne sont pas encore assez développées pour que l'on puisse vraiment les utiliser de manière sûre, on pense par exemple à l'analyse des émotions ou des maladies", développe dans La Matinale mercredi Laetitia Ramelet, cheffe de projet chez TA-SWISS.
La fondation s'attend à une amélioration de la fiabilité technique. Néanmoins, la surveillance généralisée, qui a souvent lieu à l'insu des personnes concernées, porte atteinte à leur vie privée. "Notre étude recommande de commencer par un débat de société pour savoir ce que désirent les gens, ce qui est considéré comme souhaitable ou non", commente la cheffe de projet. Pour elle, les bases légales doivent être plus fournies.
>> Lire aussi : L'utilisation des logiciels de reconnaissance faciale par la police pose question
Se limiter au strict nécessaire
Dans son étude, la Fondation recommande un recours limité à ces technologies, soit "au strict nécessaire". Les personnes concernées doivent être en mesure d'accepter ou de refuser la collecte d'informations biométriques.
Selon TA-SWISS, une surveillance automatique en temps réel dans l'espace public - par la police ou par d'autres autorités - ne doit pas être autorisée. Le recours à des technologies de reconnaissance biométrique pour l'analyse de l'attention à l'école doit aussi être interdit. Et pas question non plus d'autoriser des décisions automatiques basées sur ces technologies dans les domaines bancaires ou de la santé.
Les auteurs formulent huit recommandations, notamment davantage de formation continue et des ressources suffisantes pour les autorités chargées de la protection des données. Il s'agit aussi d'utiliser des procédés d'authentification à plusieurs facteurs, par exemple la reconnaissance faciale associée à un mot de passe.
Ces conclusions réjouissent Amnesty International
Le recours aux technologies de reconnaissance faciale automatisée en temps réel est contraire à d'autres droits fondamentaux, comme la liberté de réunion ou celle d'expression. L'an dernier, Amnesty International a donc lancé une pétition pour interdire ces pratiques.
"C'est une technologie qui n'est pas tout à fait éprouvée, elle reconnaît moins bien une certaine catégorie de la population, (...) ça donne des faux positifs et c'est donc une discrimination," explique Jean-Marie Banderet, porte-parole d'Amnesty suisse.
L'étude de 371 pages a été réalisée par l'institut allemand Fraunhofer et un groupe d'accompagnement dirigé par l'ancien préposé à la protection des données du canton de Zurich Bruno Baeriswyl. Elle a été complétée par un sondage représentatif en ligne auprès d'un millier de personnes, qui a mis en évidence des lacunes d'information considérables.
>> Lire aussi : Identifier n'importe qui en quelques clics, une opération risquée
Propos recueillis par Marielle Savoy
Adapatation web : miro avec ats