Depuis qu’Elon Musk a repris X (ex-Twitter), l’un des grands chevaux de bataille affichés de la plateforme est la lutte contre la désinformation — mission confiée à la communauté via les Community Notes. Cette initiative, censée faire de chaque utilisateur un potentiel modérateur, partait d’un bon sentiment : décentraliser la vérification des faits pour la rendre plus représentative, moins biaisée. Mais une récente analyse de Bloomberg Opinions vient cruellement rappeler les limites du système.
Sur 1,1 million de notes soumises, moins de 10 % sont effectivement affichées aux utilisateurs. Un chiffre abyssal, qui s’explique par le mode de fonctionnement de l’outil : pour qu’une note soit visible, elle doit être validée par des contributeurs aux opinions politiques divergentes. Pensée comme une parade à l’entre-soi idéologique, cette exigence se retourne contre le système : sur les sujets les plus sensibles (la politique, les conflits internationaux), le consensus est rare, et les notes disparaissent dans les limbes avant même d’avoir pu éclairer les débats.
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
Un outil bâillonné par sa propre architecture
C’est ici que le bât blesse. Loin d’apaiser la conversation, le mécanisme d’approbation agit comme un filtre opaque, empêchant des contenus factuellement solides de voir le jour. Dans le cas de la guerre en Ukraine, par exemple, plus de 40 % des notes validées initialement ont été retirées a posteriori, notamment celles visant des propos relayés par des officiels ou médias russes. Ces suppressions, bien que compréhensibles dans un contexte de guerre informationnelle, posent une question de fond : quelle est la légitimité de ce système, si des faits validés par des pairs disparaissent ensuite sans explication claire ?
À cela s’ajoute un problème de qualification des contributeurs. La porte d’entrée pour intégrer le programme Community Notes est volontairement large, au nom de la démocratisation. Mais cette ouverture fragilise l’ensemble : en l’absence de garde-fous robustes, la fiabilité des contributions fluctue dangereusement. Et les mécanismes de vérification sont encore loin de compenser cette variabilité.
Une fracture politique qui sabote la confiance
Le malaise va au-delà de X. Une étude du Pew Research Center souligne une défiance croissante envers les vérificateurs de faits institutionnels, particulièrement marquée chez les électeurs républicains. Près de 70 % d’entre eux estiment que ces organismes sont biaisés politiquement, contre 30 % des démocrates. Cette asymétrie empoisonne la perception même de ce qu’est un fait établi.
Plus largement, c’est la parole médiatique elle-même qui est contestée : deux tiers des Américains jugent que les médias prennent parti dans leurs couvertures politiques ou sociales. Dans un tel climat, aucun outil, aussi bien conçu soit-il, ne peut faire consensus. Et certainement pas un système de modération automatisé ou communautaire.
Vers une modération de façade ?
Les chiffres sont éloquents : entre 80 et 90 % des Community Notes sont rejetées, y compris lorsqu’elles sont jugées pertinentes par des évaluations indépendantes. La promesse d’une modération plus horizontale se heurte à une réalité technique et idéologique : trop peu de transparence, trop de frictions politiques, trop de désillusion.
Alors que X et d’autres plateformes cherchent à réduire les coûts de modération humaine, la tentation est grande de tout déléguer à l’algorithme… ou à la foule. Mais le cas des Community Notes montre que sans ligne éditoriale claire, sans encadrement expert, la désinformation trouve toujours un angle mort pour prospérer.
La désinformation ne meurt pas d’être ignorée. Elle s’installe, patiemment, dans les silences.