"Au fil des années, il est devenu de plus en plus facile de créer des deepfakes", a déclaré mardi devant les médias à Berne Murat Karaboga de l'Institut Fraunhofer, qui a participé à l'étude (et son résumé en français). Il existe de nombreux programmes permettant de créer ou de manipuler des enregistrements sonores, mais aussi des images et des vidéos, grâce à l'intelligence artificielle (IA), a-t-il ajouté.
Il est ainsi possible de créer des contenus dans lesquels une personne fait ou dit quelque chose qu'elle n'a jamais fait ou dit. De tels contenus sont notamment utilisés par des criminels qui copient les voix de personnes privées pour des appels de choc et de chantage.
L'usurpation d'identité, l'atteinte à la réputation, la diffusion de fausses informations et les mises en scène pornographiques sans le consentement de la personne concernée sont également des risques liés aux deepfakes, comme l'indique le rapport de plus de 400 pages.
Détection quasiment impossible
Selon le rapport, les personnes individuelles ne sont guère en mesure de repérer les vidéos deepfake (lire encadré). Lors d'une expérience, participantes et participants n'ont pas réussi à reconnaître des vidéos falsifiées. Même après qu'on leur ait donné des instructions sur la manière de mieux reconnaître de telles vidéos. Seules les personnes ayant une affinité avec les nouveaux médias ont obtenu de meilleurs résultats.
Les programmes de détection, sur lesquels les équipes de recherches fondent de grands espoirs pour la détection des deepfakes, n'ont pas obtenu de meilleurs résultats: "Nous sommes arrivés à la conclusion que les programmes de détection ne sont ni fiables ni accessibles", remarque Murat Karaboga.
Comment peut-on alors reconnaître de telles vidéos falsifiées? Il existe quelques signes visuels de reconnaissance, comme par exemple les cheveux, qui n'ont souvent pas l'air naturel, ou les mouvements qui semblent un peu grossiers. Mais avec l'amélioration constante de ces technologies, cela ne sera probablement plus possible.
Pour reconnaître les deepfakes, "il faut avant tout un certain flair", selon Murat Karaboga: "Il faut se demander: 'Est-il vraiment possible que ce contenu soit authentique?'"
Des mesures nécessaires
Pour lutter contre les effets néfastes des deepfakes, chercheuses et chercheurs proposent une série de mesures. Certaines bases légales existent, mais sont parfois difficiles à appliquer, car les grandes plateformes en ligne sur lesquelles circulent les deepfakes se trouvent à l'étranger et les responsables des délits ne sont pas toujours identifiables, a dit Nula Frei de l'institut universitaire UniDistance Suisse.
>> Lire aussi : Face à la prolifération des deepfakes, Meta met en place un dispositif d'étiquetage et Le chef de l'ONU appelle à une réponse "unie" et "globale" face aux dangers de l'IA
TA-Swiss, est d'avis que l'Etat devrait imposer aux plateformes en ligne la suppression des deepfakes nuisibles; les scientifiques recommandent encore la mise en place de centres de conseil aux victimes. Les formations continues sur les compétences en matière de médias et d'information ou l'utilisation de procédures d'authentification avancées sont également des mesures possibles.
Le rapport recommande en outre une autorégulation du secteur des relations publiques et de la publicité. Les journalistes sont également mis à contribution: l'équipe de recherche recommande ainsi de promouvoir les méthodes de vérification musclées dans les rédactions.
Les opportunités des deepfakes
Autrices et auteurs de l'étude estiment toutefois qu'il n'est pas question d'interdire cette technologie, car les deepfakes offrent aussi de nombreuses opportunités.
Dans le domaine de l'industrie du divertissement, les deepfakes offrent de nombreuses possibilités intéressantes, peut-on lire dans le rapport. Par exemple pour les versions synchronisées de films: avec le soutien de l'IA, les mouvements des lèvres des actrices et des acteurs peuvent être adaptés à la langue utilisée.
De leur côté, la police et les autorités de poursuite pénale espèrent que les deepfakes offriront de nouvelles possibilités dans la lutte contre la criminalité, par exemple pour la reconstitution des scènes de crime ou du déroulement des faits.
TA-Swiss a pour mission d'évaluer la viabilité des nouvelles technologies en collaboration avec des universités et des institutions suisses: toutes mènent des études sur le développement technologique afin de fournir des informations au Parlement, au Conseil fédéral, à l'administration et à la population.
>> Lire aussi : Les moteurs de réponse IA, une révolution technologique avec des défis de fiabilité
sjaq et l'ats
Qu'est-ce qu'un deepfake?
"Les deepfakes – ou médias synthétiques – sont des images, des vidéos ou des enregistrements sonores générés par une intelligence artificielle et montrant une situation qui n'a jamais existé sous cette forme", explique TA-Swiss.
>> Lire : Un débat en deepfake? Infrarouge tente l'expérience interdite
Et de préciser que les contenus manipulé ou entièrement artificiels sont "créés par des logiciels qui s'appuient sur des données d'entraînement provenant d'immenses bases de données sur internet".
Il existe de nos jours toutes sortes de programmes permettant la fabrication de deepfakes, comprenant de simples logiciels pour l'échange de visages, le "face swapping", ou des applications sophistiquées qui réussissent à produire une sorte de "jeu de marionnettes virtuel" avec des personnes artificielles, ce qui est appelé full body puppetry en anglais.
D'autres logiciels – encore rudimentaires pour l'heure – peuvent générer des vidéos à partir de commandes textuelles ou "prompts".