Plusieurs organisations appellent YouTube à mieux lutter contre la désinformation
Dans une lettre ouverte, quelque 80 organisations ou médias comme le Washington Post ou Africa Check estiment que les mesures prises par la plate-forme jusqu'à maintenant ne fonctionnent pas.
Ils estiment que l'hébergeur de vidéos reste l'un des principaux vecteurs de désinformation en ligne dans le monde, surtout dans le contexte de la pandémie. Dans leur lettre, ils donnent pour exemple le grand nombre de vidéos trompeuses ou mensongères sur des fraudes électorales, notamment à Taïwan, ou encore des contenus visionnés des millions de fois présentant des remèdes bidons contre le Covid-19.
Méthode répressive peu efficace
"Nous avons largement investi dans des politiques pour réduire la diffusion de fausses informations", rétorque le géant américain. En effet, des mesures plutôt répressives ont déjà été mises en oeuvre, mais de manière ciblée.
Par exemple, la plateforme a déjà annoncé la suppression de la monétisation des vidéos climatosceptiques. En outre, des chaînes d'activistes antivax, ou présentant des thérapies fantasques, ont été supprimées. Parmi elles, celle de l'ostéopathe Joseph Mercola, présenté par le New York Times comme "le diffuseur le plus influent de fausses informations sur le coronavirus".
Mais ces organisations incitent désormais YouTube à des mesures plus efficaces que la suppression systématique de contenus, qui fait rarement ses preuves. Elles appellent à plus de transparence dans les algorithmes, ou à mettre en avant des informations vérifiées à travers ses algorithmes de suggestions de vidéos.
Plusieurs options
Parmi les signataires, Vincent Couronne, co-fondateur du collectif français "Les surligneurs", estime que YouTube devrait s'inspirer du modèle de Facebook qui consiste à dé-référencer des contenus considérés comme de la désinformation par les fact-checkeurs. Ce qui rendrait ces vidéos beaucoup plus difficiles à trouver.
>> Lire à ce sujet : Facebook continue à lutter contre la désinformation sur le Covid-19
"Quoi qu'il en soit, une fois le Digital Services Act adopté par l'Union européenne cette année, YouTube sera soumis, comme Google ou Facebook, à des règles strictes pour lutter contre la désinformation qui porte atteinte à la démocratie", rajoute-t-il.
Directrice de l'Académie du journalisme et des médias (AJM) à Neuchâtel, Nathalie Pignard Cheynel prône quant à elle une approche en collaboration avec les utilisatrices et utilisateurs, qui veilleraient et signaleraient ces contenus.
Miruna Coca Cozma/jop
Nouveaux outils européen de régulation
Le Digital Service Act (DSA) et le Digital Markets Act (DMA) sont les deux volets de réglementation de l’espace numérique européen.
Le DSA s’intéresse aux contenus des géants du numérique comme Facebook, Apple, Google, Amazon ou Microsoft. Il obligera les GAFAM à expliquer leurs pratiques de modération et démontrer la manière dont ces entreprises réagissent en cas de détection de contenu problématique.
Le DMA et le DSA pourraient entrer en vigueur dès 2022.