Publié

Deepfakes: le clonage vocal, la nouvelle menace pour l'identification en ligne

Certains logiciels de reconnaissance vocale permettent de divulguer nos conversations sur internet. [Fotolia - Sergey Nivens]
Les problèmes de reconnaissance vocale en matière de sécurité / La Matinale / 4 min. / le 9 mars 2023
L’intelligence artificielle entre les mains du grand public peut poser de nouveaux problèmes, notamment en matière de sécurité. Dernier exemple en date, un journaliste américain a réussi à tromper une banque en utilisant une voix générée par l’ordinateur.

Depuis de nombreuses années, il est possible de trafiquer des photos, des vidéos ou des voix. Mais ces outils sont restés longtemps dans les laboratoires, entre les mains des chercheurs. Aujourd’hui, ces logiciels sont performants et de moins en moins chers à produire.

Dans un monde numérique où tout va très vite, des start-up mettent désormais ces outils à disposition du grand public. Le marché des voix synthétiques est en plein boom. Officiellement, il s’agit de proposer des voix créées par l’intelligence artificielle (IA) pour produire des podcasts pas chers, mettre des voix dans des vidéos ou créer des chatbots pour converser avec les clients.

Mais rapidement, une nouvelle utilisation est apparue: créer des deepfakes ou hypertrucages en français. Car dans l’offre de certaines start-up, il est possible de cloner une voix. L’héroïne des films Harry Potter, Emma Watson, s’est ainsi retrouvée à son insu à lire "Mein Kampf", le pamphlet dans lequel Adolf Hitler expose sa conception haineuse, anti-sémite et raciste du monde. Le résultat de cette démonstration de la capacité de trucage de l'IA, dans une vidéo diffusée sur Twitter, est bluffante.

La procédure est simple. Il faut un enregistrement audio de 5 minutes, de bonne qualité, que l’on dépose dans un programme en libre accès. Dès lors, il suffit de taper un texte pour faire parler le clone numérique.

Deepfakes à portée du grand public

C’est la technique utilisée par Joseph Cox, journaliste chez Vice, pour tromper sa banque.

Il lui suffit encore d’entrer une date de naissance sur son téléphone, chose plutôt facile à trouver sur internet et les réseaux sociaux. Il a alors accès à son compte en banque.

Alors peut-on encore utiliser la voix pour s’authentifier? Lloyds, la banque visée par l’article de Vice, affirme que l'identification vocale est une mesure de sécurité facultative. Mais l'établissement bancaire reste convaincu qu’elle offre un niveau de sécurité plus élevé que les méthodes d'authentification traditionnelles basées sur les connaissances.

Des banques suisses utilisent la reconnaissance vocale

En Suisse aussi, des banques utilisent ce type d’identification par la voix. Pour la banque Cler, par exemple, vous parlez à un humain au téléphone, pas à un ordinateur. Et on ne peut pas entrer dans son compte bancaire.

La Banque Migros utilise également cette technologie. Mais elle ne se dit pas touchée par la problématique. "Pour des raisons de sécurité, la Banque Migros n'utilise pas un seul mot de passe fixe pour s'identifier lors des demandes des clients, mais un discours libre et prolongé en dialogue avec les collaborateurs du centre clientèle", explique le service de presse.

Postfinance propose également cette technologie depuis 2018. "Nous avons toujours été conscients des risques, raison pour laquelle la sécurité est un thème important pour nous dès le début", explique un porte-parole de Postfinance. "Avant l’introduction de la reconnaissance vocale, PostFinance avait déjà fait vérifier la reconnaissance vocale par des spécialistes externes".

Des protections pour éviter les faux

Pour éviter les clones vocaux, Postfinance a notamment renoncé à n’avoir qu’une seule phrase d’identification, du type "ma voix est mon mot de passe". L’entreprise a également augmenté les exigences d’authentification. De vrais clients peuvent être refusés, si le logiciel a un doute.

Pourquoi conserver un système que l’on sait potentiellement risqué? "La reconnaissance vocale rend l’expérience client plus agréable, car il n’y a plus besoin de se soumettre aux questions de sécurité, souvent ressenties comme incommodantes. En outre, la reconnaissance vocale contribue à la sécurité lors de l’identification de nos clients au Customer Center".

À noter qu’en utilisant le Voicebot (le client parle au téléphone avec une machine), pendant l’authentification de la voix, d’autres données du client sont vérifiées en arrière-plan. À ce jour, selon la banque, aucune voix falsifiée n’a pu tromper le système. Le client peut désactiver la fonction à tout moment.

Limites de la fiabilité

Pour les chercheurs, l’identification par la voix reste un problème compliqué. La fiabilité n’est pas toujours au rendez-vous. "La voix varie en fonction du moment de la journée, de l’état de santé, de l’âge, des émotions, du micro utilisé, de l’environnement", explique Hervé Bourlard, directeur de l’Idiap à Martigny et spécialiste de la reconnaissance vocale.

"Il y a tellement de paramètres en jeu, qu’extraire les caractéristiques qui sont propres à une personne reste difficile". Les clones de voix sont sur le marché, il va désormais falloir obtenir des outils pour détecter les faux.

L’Idiap travaille sur la question. "Parfois, cela fonctionne, d’autres fois pas", relativise Hervé Bourlard. "Pour le faire de façon fiable, il faut passer en laboratoire et extraire des paramètres. Nous sommes capables de voir relativement facilement si c’est un deepfake ou pas". Une expertise a déjà été demandée par des entreprises.

Et les problèmes ne font que poindre. Que faire avec les vols de voix? Pourra-t-on utiliser un clone de voix après la mort de la personne?

Pascal Wassmer

Publié