Meta, l’entreprise derrière Facebook et Instagram, a récemment effectué des modifications significatives dans sa politique de modération des contenus. Ces changements concernent principalement la levée des restrictions sur les fausses informations aux États-Unis. Cette décision, passée quelque peu sous silence au milieu d’autres annonces de l’entreprise, pourrait avoir un impact notable sur la qualité des informations circulant sur ces réseaux sociaux.
Un changement d’algorithme majeur
Le 14 janvier, le média américain spécialisé « Platformer » a révélé que Meta avait levé les restrictions concernant la diffusion de fausses informations et de messages potentiellement trompeurs pour les utilisateurs américains de Facebook et d’Instagram. Ce changement a été initié après la publication, une semaine auparavant, d’un communiqué par Joel Kaplan, le nouveau responsable de la politique de modération chez Meta. Selon Kaplan, ces mesures ont été prises pour exiger davantage de certitude avant de rétrograder du contenu suspect.
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
Depuis 2016, Meta avait instauré un vaste programme de fact-checking international pour réduire la portée des fake news grâce à des outils de modération automatique. Ces dispositifs détectaient les contenus douteux et en limitaient la visibilité. Cependant, ces systèmes automatiques ont été désactivés sur les plateformes américaines de Meta, entraînant ainsi une potentielle hausse de la propagation des fausses nouvelles.
L’arrêt progressif des outils de contrôle automatisé
Les mesures automatiques de réduction de la portée des informations non vérifiées étaient en place depuis plusieurs années, notamment pour limiter les risques avant les élections présidentielles américaines de 2016. Grâce à ces algorithmes de classification, Meta avait réussi à diminuer la propagation des fausses nouvelles de 90 %. Ces outils employaient des techniques d’apprentissage machine pour évaluer les contenus publiés, en se basant sur la fréquence des signalements de fausseté dans les commentaires ou sur l’origine des messages.
Joel Kaplan, dans son communiqué, a précisé que Meta continuerait à rétrograder uniquement les contenus ayant une forte probabilité de violation des normes communautaires. Cependant, cette démarche soulève des questions quant aux futurs débordements permis par la suppression de ces régulations. La révélation de ce retrait graduel de contrôle a suscité de vives réactions parmi les spécialistes et usagers soucieux de la fiabilité des informations présentes sur ces grandes plateformes sociales.
Réactions et critiques face à cette nouvelle politique
L’abandon des partenariats avec les vérificateurs de faits indépendants aux États-Unis, annoncé plus tôt par Meta, a rendu la situation encore plus complexe. L’entreprise a justifié cette décision en accusant ces vérificateurs de biais systématiques. Toutefois, aucune plainte officielle n’a été enregistrée contre eux jusqu’à présent, selon les déclarations publiques de Meta.
Cette politique a des effets notables sur la circulation de fausses nouvelles, en permettant leur réplication sans frein immédiat. Certains observateurs pointent du doigt des cas emblématiques comme les rumeurs sur le Pape François soutenant Donald Trump ou l’affaire dite « Pizzagate », qui avaient déjà impacté les années précédentes. Ces exemples illustrent pourquoi la régulation stricte était jugée nécessaire par nombreux analystes et comment certains contenus nuisibles pourraient reprendre de la vigueur.
Changement des règles sur les discours de haine
En parallèle, Meta a annoncé une modification de ses politiques relatives aux discours de haine. Notamment, certaines insultes envers les femmes et les membres de la communauté LGBTQ seront désormais tolérées. Cette nouvelle orientation va à l’encontre des efforts entrepris ces dernières années pour promouvoir la diversité et lutter contre les discriminations.
Ces annonces ne sont pas passées inaperçues et ont alimenté le débat sur la responsabilité des géants technologiques en matière de régulation du contenu. Mark Zuckerberg, PDG de Meta, dans une lettre adressée à Jim Jordan, président de la commission judiciaire de la Chambre des représentants, a exprimé ses regrets concernant les demandes passées de censure de certains contenus liés à la COVID-19. Il a cependant assuré que l’entreprise ne rétrograderait plus des contenus suspects avant vérification.
Meta face aux défis de la désinformation
Les décisions récentes de Meta s’inscrivent dans un contexte de pression croissante de la part des politiques et du public pour garantir la transparence et l’intégrité des informations disponibles sur les réseaux sociaux. Les accusations de sabotage politique par les Républicains et les témoignages sur l’ingérence étrangère lors des élections américaines incitent à une vigilance accrue.
L’arrêt des systèmes internes de limitation des fausses nouvelles coïncide également avec des redistributions importantes dans les équipes responsables de la diversité, de l’équité et de l’inclusion chez Meta. Ainsi, l’annonce de la suppression de critères sérieux pour tenir compte de la diversité lors des recrutements marque un autre tournant critique et controversé dans la stratégie globale de l’entreprise.