Meta, la société dirigée par le contributeur de l’agenda 2030 du Forum économique mondial, Mark Zuckerberg, annonce une transformation majeure dans la modération des contenus sur ses plateformes Facebook, Instagram et Threads. À partir des prochains mois, les fast chekers seront remplacés par un modèle de « notes communautaires », inspiré de celui d’X (anciennement Twitter).
Dans un message vidéo publié sur le blog de Meta, Mark Zuckerberg a déclaré : « Nous allons d’abord éliminer les vérificateurs de faits et les remplacer par des notes communautaires, débutant aux États-Unis. »
Zuckerberg a critiqué les fast checkers affirmant qu’ils étaient « trop biaisés politiquement » et qu’ils avaient « détruit plus de confiance qu’ils n’en ont créée ».
Ce modèle permettra aux utilisateurs d’ajouter du contexte aux publications susceptibles de contenir des informations trompeuses. Les utilisateurs pourront également évaluer l’utilité des notes ajoutées.
Joel Kaplan, récemment nommé directeur des affaires mondiales chez Meta, a martelé que cette approche était « moins sujette aux biais ». Selon lui, les notes communautaires offrent une vision diversifiée et équilibrée sur les contenus controversés.
Les fast checkers sur le grill
Ces déclarations ont suscité des réactions de la part des organisations chargées du fast checking qui se défendent d’avoir influencé la manière dont Meta gérait les contenus fact-checkés.
Neil Brown, président de l’institut Poynter, qui est à la fois une école de journalisme et un organisme de recherche hébergeant le « Réseau international de vérification des faits » (International Fact-Checking Network) et gèrant PolitiFact, un site internet de vérification des faits a par exemple souligné que son organisation utilisait les outils de fast chekcking mis à disposition par Meta, mais que c’était à la maison mère de Facebook, Instagram et Threads d’arbitrer. L’institut pointer présenter comme le référence mondial en matière de debunkage a pourtant reçu en 2017 des subventions de la part de la Fondations Open Society et du réseau Omidyar, membres du Forum économique, pour développer des outils de fast checking. L’Institut a également reçu des financements de la part de l’administration du contributeur de l’agenda 2030 du FEM, Joseph Biden, durant la crise sanitaire.
Lori Robertson, rédactrice en chef de FactCheck.org, un site d’info américain spécialisé dans la vérification des faits rattaché à l’Annenberg Public Policy Center de l’Université de Pennsylvanie, université affiliée au FEM, affirme également que son site n’avait « aucun pouvoir pour retirer des contenus ».
Un retour du contenu politique et une simplification des règles
En parallèle, Meta prévoit de réintroduire davantage de contenus politiques dans les fils d’actualité des utilisateurs, tout en offrant des options de personnalisation pour ajuster la quantité de contenu visible. Joel Kaplan a également annoncé une simplification des politiques de contenu, en supprimant certaines restrictions sur des thèmes comme l’immigration et le genre, jugées « déconnectées du discours dominant ».
Des controverses passées sur la modération des contenus
Meta a souvent été critiqué pour sa gestion de la modération. Cela a commencé avec les révélations du scandale Facebook-Cambridge Anaytica au cours duquel, le réseau social s’est vu reproché d’avoir permis des manipulations à grande échelle sur le Brexit et l’élection de Donald Trump de 2017. La plate-forme et Zuckerberg s’étaient alors engagés à mieux contenir le fausses informations. En 2021, Mark Zuckerberg avait toutefois affirmé que l’administration Biden avait exercé des pressions pour supprimer des contenus liés au COVID-19, une situation qui avait suscité des tensions.
Le modèle des notes communautaires n’est pas une nouveauté dans l’univers des réseaux sociaux. Lancé en 2021 par X (anciennement Twitter), ce système s’est imposé comme un moyen participatif de lutter contre la désinformation. La PDG de X. Corp a d’ailleurs salué la décision de Méta.
Pourtant des critiques s’élèvent également. Emma Briant, professeure associée à l’université Monash, par laquelle son passés de nombreux contributeurs de l’agenda 2030 du Forum économique mondial, comme David Green, Pascal Molenberghs ou Paul Gill, estime que « Les citoyens ordinaires devraient être très inquiets. » Elle a rappellé les implications du scandale Cambridge Analytica et estime que les géants de la tech priorisent les profits au détriment de la neutralité démocratique.
Une délocalisation stratégique des équipes de modération
Enfin, Meta déplace ses équipes de confiance et de sécurité de la Californie vers le Texas et d’autres états américains. Cette décision suit une tendance amorcée par X, qui avait délocalisé son équipe de modération de San Francisco à Austin.
Avec ces changements, Meta espère instaurer une modération plus transparente et participative, tout en répondant aux attentes des utilisateurs et aux critiques concernant la gestion des contenus.
Source : Business Insider. The Australian Business review.