Pendant une semaine, du 11 au 18 janvier 2012, Facebook et des scientifiques des Universités Cornell et de Californie à San Francisco, ont utilisé le système d'algorithmes du réseau pour modifier le contenu des informations reçues par un groupe d'utilisateurs afin d'étudier l'impact sur leurs émotions.
La recherche a été publiée le 17 juin dans la revue scientifique américaine Comptes rendus de l'Académie nationale des sciences.
Inquiétude grandissante des internautes
L'étude suscite une attention grandissante sur la toile après des articles publiés samedi dans la revue en ligne Slate et sur les sites du magazine The Atlantic et de Forbes. Certains internautes expriment "leur trouble profond" ou qualifient la méthode utilisée "d'alarmante" ou de "démoniaque".
Les auteurs affirment que les autorités de leurs universités avaient approuvé ces travaux "car Facebook, apparemment, manipule systématiquement le contenu des informations diffusées".
De son côté, Facebook a rejeté ces accusations.
afp/hend
La contagion émotionnelle
Avec leur étude, les auteurs cherchaient à savoir si le nombre de messages positifs ou négatifs lus par les utilisateurs influençait la teneur de ce qu'ils postaient eux-mêmes sur le site.
Les chercheurs ont constaté que les utilisateurs ciblés commençaient à utiliser davantage de mots négatifs ou positifs selon l'ampleur des contenus auxquels ils avaient été "exposés".
Selon eux, "ces résultats montrent la réalité d'une contagion émotionnelle de masse via les réseaux sociaux."