Le 7 janvier 2025, Mark Zuckerberg a annoncé un changement important dans le système de modération de Facebook, marquant la fin du fact-checking. À leur place, Meta met en place un système de « Community Notes », où les utilisateurs eux-mêmes fourniront des informations supplémentaires pour évaluer les publications.
La fin des modérateurs et l'arrivée des "Community Notes"
Jusqu’à aujourd’hui, Meta employait des journalistes comme ceux de l’AFP pour vérifier les contenus sur ses plateformes, en fonction des spécificités de chaque pays.
Cependant, la plateforme a désormais opté pour un système de « notes de contexte », inspiré de celui utilisé par X (ex-Twitter). Ces notes, rédigées par des utilisateurs volontaires, sont ensuite évaluées par d’autres membres de la communauté.
L’objectif est de fournir des précisions sur des contenus potentiellement trompeurs, en s’appuyant sur l’avis collectif des utilisateurs plutôt que sur une vérification centralisée.
Un large assouplissement des règles de modération
Cette évolution coïncide avec le retour des « contenus politiques » sur les plateformes de Meta. L’entreprise renforce également sa collaboration avec Donald Trump pour lutter contre la censure imposée aux entreprises américaines par certains gouvernements.
En parallèle, Meta assouplit les règles de modération sur des sujets sensibles comme l’immigration, l’identité de genre et les troubles mentaux, autorisant des contenus autrefois interdits. Les critiques estiment que cette modération par les utilisateurs pourrait favoriser la propagation de la désinformation.
Ces changements concernent pour l’instant les États-Unis, sans impact immédiat en France, où le programme de fact-checking reste en place.