La plateforme entend se concentrer sur les contenus modifiés (montages vidéos ou audio, images éditées) qui visent à tromper le public ou risquent de nuire à des personnes, en incitant à la violence ou en portant atteinte à leur liberté d'expression, par exemple.
Les tweets tombant dans ces catégories seront retirés ou étiquetés avec un avertissement, à partir du mois de mars. Le réseau pourra aussi réduire la visiblité des messages ou ajouter du contexte.
La plupart des grands réseaux sociaux ont mis en place des mesures combinant intelligence artificielle et ressources humaines pour lutter contre la désinformation, des fausses nouvelles aux "deep fakes" (des photos ou vidéos truquées hyper-réalistes, ndlr).
>> Lire aussi : Les "deep fakes", des vidéos truquées au fort potentiel de nuisance
Ils réagissent notamment à la pression des autorités européennes et américaines, alors que des campagnes de manipulation menées notamment sur Facebook en 2016 ont tenté d'influencer l'opinion lors de scrutins majeurs, comme l'élection présidentielle aux Etats-Unis ou le référendum sur le Brexit au Royaume-Uni.
Messages écrits pas concernés
Le réseau des gazouillis cible les truquages, notamment audio ou vidéo, mais ne s'attaque pas directement aux messages écrits fallacieux, alors qu'il a par ailleurs interdit les publicités à caractère politique.
Un montage vidéo, comme celui qui prêtait au candidat démocrate Joe Biden des propos racistes en début d'année, ne devrait plus avoir droit de cité sur Twitter. L'un des tweets de partage de cette vidéo avait été vu plus d'un million de fois.
Pour repérer les contenus potentiellement problématiques, les équipes de Twitter dans le monde comptent notamment sur les signalements, même si "nous voulons réduire le fardeau des utilisateurs", a précisé Yoel Roth.
Il a admis que les images et vidéos satiriques risquaient de leur donner du fil à retordre. "Si nous nous trompons, il y aura une procédure d'appel", précise le réseau.
Yannick Rochat, collaborateur scientifique au collège des humanités de l'EPFL à Lausanne, interrogé dans Forum, estime que les vérifications de Twitter sont "une question de crédibilité. L'entreprise a été très critiquée depuis 2016".
afp/cab
YouTube et Facebook
YouTube, la plateforme vidéo de Google, a annoncé lundi des mesures similaires sur les "contenus manipulés ou falsifiés", "dans le but de tromper les utilisateurs" et "qui posent un risque flagrant de dommages".
Facebook, de son côté, permet toujours les publicités politiques, et les exempte même de son système de vérification des faits.
L'AFP participe dans plus de 30 pays et 10 langues au "Third party fact-checking", programme de vérification par des médias développé par Facebook. Avec ce programme, qui a démarré en décembre 2016, Facebook rémunère une soixantaine de médias à travers le monde, généralistes ou spécialisés, pour l'utilisation de leurs "fact-checks" sur sa plateforme et sur Instagram.
Si une information est diagnostiquée comme fausse ou trompeuse par l'un de ces partenaires, les utilisateurs sont moins susceptibles de la voir apparaître dans leur fil d'actualité. Et si ceux-ci la voient ou tentent de la partager, la plateforme leur suggère la lecture de l'article de vérification. Il n'y aucune suppression de publications.