Modifié

La désinformation russe s'infiltre dans les réponses des assistants virtuels dopés à l'IA

"ChatGPT" a été le terme le plus recherché par les internautes suisses en 2023. [Keystone - Christian Beutler]
Chatbots et l’influence russe en matière de désinformation, explications / La Matinale / 1 min. / le 21 juin 2024
L'organisation américaine de lutte contre la désinformation NewsGuard a interrogé les principaux chatbots des dix plus grandes entreprises d'IA - comme Google ou Meta - sur des "fake news" propagées par des sites russes. Et son audit révèle que ces agents conversationnels peuvent être perméables aux informations fallacieuses. 
 

C'est un cercle vicieux. De faux articles sont rédigés en grande quantité par l'intelligence artificielle, du type "Volodymyr Zelensky aurait acheté à la royauté britannique des yachts de luxe".

Ensuite, ces informations fallacieuses sont multipliées par des dizaines de sites pro-Kremlin. Et pour boucler la boucle, l'audit de NewsGuard révèle que dans 32% des cas, les chatbots qui sont interrogés sur ces faux récits répètent ces infox comme s'il s'agissait de faits avérés.

L'audit a testé 10 des principaux chatbots d’IA – ChatGPT-4 d’Open AI, Smart Assistant de You.com, Grok de xAI, Pi d’Inflection, Le Chat de Mistral, Copilot de Microsoft, Meta AI, Claude d’Anthropic, Gemini de Google, et Perplexity. L’organisation a utilisé 570 instructions, 57 instructions ayant été testées sur chaque chatbot.

"Les instructions s'appuyaient sur 19 récits significativement faux que NewsGuard a liés au réseau de désinformation russe", précise l'audit.

Un troll américain à la solde de Moscou

L'organisation américaine de lutte contre la désinformation a découvert qu'au coeur de ce système, il y avait John Mark Dougan, ancien shérif américain devenu troll à la solde de Moscou, et ses 170 sites internet qui opèrent depuis Moscou. Leurs noms - Boston Times ou encore DC Weekly - rappellent des journaux bien établis.

Or, le problème est que l'IA semble avoir été dupée par ces sites. Les assistants virtuels dopés à l'IA du type ChatGPT ou Copilot les citent comme des sources fiables dans leurs réponses. Un chatbot a décrit un article du "Houston Post" (site appartenant à l’écosystème de John Mark Dougan) comme étant un "article d’information crédible", selon NewsGuard.

Même si les assistants virtuels ne constituent pas encore la principale source d'information, ils peuvent amplifier, parfois sans le savoir, des récits de désinformation.

Miruna Coca-Cozma/fgn

Publié Modifié