Les réponses de ChatGPT sur les conflits diffèrent en fonction de la langue, selon une étude
Deux chercheurs des universités de Zurich (UZH) et de Constance (D) ont posé à ChatGPT les mêmes questions sur les conflits armés, comme celui au Proche-Orient, de manière répétée et automatisée, dans différentes langues.
En arabe et en hébreu, ils ont demandé combien de victimes avaient été recensées lors de 50 attaques aériennes choisies au hasard, comme l'attaque aérienne israélienne sur le camp de réfugiés de Nuseirat.
Des différences concernant les femmes et les enfants
D'une manière générale, ChatGPT indique un nombre plus élevé de victimes lorsque les recherches sont effectuées dans la langue du groupe attaqué. ChatGPT a en outre tendance à rapporter davantage d'enfants et de femmes tués dans la langue du groupe attaqué et à décrire les attaques aériennes comme étant plutôt aveugles et arbitraires.
"Nos résultats montrent en même temps que les attaques aériennes sont plus susceptibles d'être contestées dans la langue de l'agresseur par ChatGPT", explique Christoph Steinert, chercheur à l'Institut de sciences politiques de l'UZH, cité dans un communiqué.
Le même schéma que pour le conflit au Proche-Orient s'est produit lorsque les scientifiques ont posé des questions sur les attaques aériennes du gouvernement turc dans les régions kurdes, à la fois en turc et en kurde, a indiqué l'UZH.
Des distorsions difficiles à percevoir
Les personnes ayant des connaissances linguistiques différentes reçoivent par conséquent des informations différentes par le biais de ces technologies, ce qui a une influence centrale sur leur perception du monde, souligne l'étude.
Selon les chercheurs, cela peut conduire les personnes vivant en Israël à estimer, sur la base des informations qu'elles reçoivent de ChatGPT, que les attaques aériennes à Gaza ont été moins meurtrières, comparativement à la population arabophone.
Les médias d'information classiques peuvent certes aussi déformer les comptes rendus. Mais les distorsions systématiques comme celles constatées dans le cas de ChatGPT sont difficiles à percevoir pour la plupart des utilisateurs, note l'UZH.
Il existe un risque que la mise en œuvre de ces instruments dans les moteurs de recherche renforce les perceptions divergentes, les préjugés et les bulles d'information le long des frontières linguistiques, avertissent les auteurs. Cela pourrait contribuer dans le futur à alimenter des conflits armés comme celui du Proche-Orient, selon ces travaux publiés dans le Journal of Peace Research.
ats/juma