Lorsqu’Elon Musk a racheté Twitter en 2022 et l’a renommé X, il a enveloppé son acquisition d’un langage de vertu civique : une « place publique numérique » où la liberté d’expression prospérerait. Ce cadrage était un mensonge. En pratique, Musk a transformé X en une plateforme qui déforme activement le discours politique à travers des algorithmes opaques, une influence monétisée et un démantèlement délibéré des mécanismes de transparence. Loin de préserver la neutralité, X est devenu un vecteur de promotion politique furtive, fortement biaisé en faveur des récits d’extrême droite et des sympathies autoritaires.
Les régulateurs de l’Union européenne ont confirmé ce que les chercheurs, les journalistes et les groupes de la société civile soupçonnaient depuis longtemps : X enfreint ses obligations légales en matière de transparence publicitaire, d’étiquetage politique et d’accès pour les chercheurs. Ce ne sont pas des infractions techniques mineures. Ce sont des décisions structurelles qui permettent une influence politique non déclarée à grande échelle. La plateforme de Musk ne se contente pas de permettre la manipulation – elle en profite, en utilisant les privilèges des comptes payants et les incitations algorithmiques pour amplifier certains acteurs politiques tout en dissimulant la machinerie qui se trouve derrière.
Cet essai formule une accusation claire : X fonctionne comme un système publicitaire politique non déclaré, en violation directe du droit de l’UE, et probablement en contravention des règles de transparence des campagnes au Royaume-Uni et aux États-Unis également. Les preuves sont accablantes, le motif est visible, et l’impact est mondial.
Quelques semaines après la prise de contrôle par Musk, la gouvernance déjà fragile de Twitter a été démantelée. Le Conseil de confiance et de sécurité – un organe externe de responsabilité – a été abruptement dissous. Les politiques ont été réécrites, les équipes décimées, et l’accès pour la société civile et les journalistes restreint. La vision de Musk de la « liberté d’expression » s’est rapidement révélée être une libre latitude pour ceux alignés sur son agenda idéologique.
Dans le même temps, Musk a introduit la vérification payante, monétisant ainsi efficacement la visibilité. La coche bleue n’était plus un gage d’authenticité, mais un ticket pour un favoritisme algorithmique. Les comptes vérifiés – souvent des opérateurs politiques, des provocateurs ou des propagandistes – ont bénéficié d’une distribution amplifiée et, dans de nombreux cas, partageaient les revenus de la plateforme, liant directement les incitations financières aux messages politiques.
Ce n’était pas une erreur. C’était une refonte stratégique : supprimer les garde-fous, brouiller les lignes entre le discours organique et payant, et armer les systèmes de recommandation au service des alliances politiques de Musk.
Le système de recommandation de X n’est pas un arbitre neutre. C’est un amplificateur politique délibérément calibré. Des recherches internes menées avant la prise de contrôle par Musk ont confirmé que la chronologie de Twitter amplifiait déjà de manière disproportionnée le contenu orienté à droite. Sous Musk, cet déséquilibre s’est accentué.
La publication du code open-source de X en mars 2023 n’était qu’une diversion. Bien qu’elle ait révélé un cadre squelettique pour le classement des tweets, elle a dissimulé des données opérationnelles clés : les changements de paramètres en temps réel, les interventions manuelles et l’influence du statut payant sur la visibilité. Le public n’a toujours pas accès aux variables qui comptent : qui est promu ? Qui est étouffé ? Et pourquoi ?
Ce qui est clair des audits indépendants, c’est ceci : le contenu politique des comptes de droite, nationalistes et alignés sur les théories du complot domine le flux « Pour vous » – en particulier lorsque ces comptes sont monétisés ou vérifiés. En effet, X vend de la portée politique tout en niant que de telles transactions constituent de la publicité.
Ce n’est pas une spéculation. C’est un biais mesurable, étayé par plusieurs études évaluées par des pairs et des expériences avec des comptes fantoches. Lorsque l’engagement devient le principe organisateur d’une plateforme, l’indignation l’emporte, la vérité perd, et les démagogues prospèrent.
Les conclusions préliminaires de l’UE contre X dans le cadre de la Loi sur les services numériques (DSA) et du Règlement 2024/900 sur la publicité politique sont accablantes :
Ce ne sont pas des accidents. Ce sont des tactiques. X retient délibérément l’accès, sachant que la pleine transparence révélerait une amplification politique coordonnée déguisée en engagement organique.
La vérification payante est au cœur de ce schéma. Les comptes vérifiés bénéficient d’un traitement préférentiel dans les classements, d’une éligibilité au partage des revenus et d’une portée accrue – même lorsque leur contenu propage de la désinformation, de la haine ou de la propagande politique. Cette fonctionnalité transforme efficacement la plateforme en un mégaphone payant pour les acteurs idéologiques.
Dans l’Union européenne, ce comportement viole directement les lois exigeant la divulgation des publicités politiques, l’identité des sponsors et l’utilisation de données personnelles sensibles pour le ciblage. Au Royaume-Uni, il contrevient aux exigences d’empreinte numérique en vertu de la loi électorale. Aux États-Unis, il frôle dangereusement la violation des règlements de la FEC et de la FTC sur les communications politiques en ligne et le marketing trompeur.
D’ici 2024, Musk avait publiquement soutenu Donald Trump, accueilli des figures d’extrême droite sur sa plateforme et s’était directement engagé dans des messages politiques sous le couvert de la politique d’entreprise. Ce ne sont pas des soutiens occasionnels – ce sont des interventions matérielles d’un propriétaire de plateforme dans le discours électoral.
Le contrôle sur la politique de la plateforme, la conception technique et les incitations financières permet à Musk de biaisé le système pour récompenser ses alliés politiques et réprimer la dissidence. Le résultat est une boucle de rétroaction : ceux qui flattent ses vues ou provoquent un engagement maximal montent au sommet ; les autres sont noyés ou démonétisés.
Ce n’est pas seulement dangereux – c’est un biais structurel codifié dans le code. Aucune posture sur la « liberté d’expression » ne peut masquer le conflit d’intérêts lorsqu’un milliardaire contrôle l’infrastructure de la visibilité politique.
Dans l’UE, le seuil pour la « publicité politique » est clair : toute diffusion payante ou soutenue matériellement de contenu politique doit être étiquetée, archivée et auditable. X a bafoué les trois obligations.
Le Règlement sur la transparence et le ciblage de la publicité politique (2024/900) exige des divulgations que X a systématiquement ignorées. La Loi sur les services numériques exige que les très grandes plateformes comme X accordent un accès aux chercheurs vérifiés et maintiennent des référentiels publicitaires fiables. X a défié ces règles – et les régulateurs agissent déjà pour les faire respecter.
Au Royaume-Uni, la Loi électorale de 2022 exige des empreintes numériques – identifiant qui est responsable des messages politiques. La configuration actuelle de X – où les comptes payants promeuvent des messages politiques sans étiquette, divulgation de financement ou transparence de ciblage – se moque de cette loi.
Aux États-Unis, la FEC et la FTC ont compétence sur la défense explicite et le marketing trompeur. La visibilité payante, la monétisation et la manipulation algorithmique par un propriétaire de plateforme ne sont pas exemptes d’examen. La seule raison pour laquelle aucune mesure d’exécution n’a encore été prise est le vide réglementaire créé par le lobbying des plateformes et l’ambiguïté juridique – pas l’innocence légale.
Les registres cruciaux existent. Ils incluent :
X refuse de les fournir – non pas parce qu’ils n’existent pas, mais parce qu’ils prouveraient que la plateforme opère comme un système publicitaire politique non déclaré.
Tous les outils réglementaires pour contraindre à la divulgation existent. L’UE les utilise déjà. Les États-Unis et le Royaume-Uni devraient suivre.
« Nous avons ouvert le code de l’algorithme. » → Faux. La publication du code est incomplète et obsolète. Les poids clés, les politiques et les interventions en direct restent cachés.
« L’engagement n’est pas idéologique. » → Sans pertinence. Les systèmes maximisant l’engagement favorisent structurellement le contenu extrême, tribal et souvent de droite. C’est un choix de conception avec des conséquences politiques.
« Il n’y a pas de loi contre les algorithmes. » → Trompeur. Il existe des lois contre l’influence politique non déclarée, les systèmes publicitaires non transparents et les plateformes qui trompent les utilisateurs sur le contenu payant. X enfreint les trois.
Le discours politique n’est pas le problème. La manipulation non déclarée du discours politique l’est. Lorsque les plateformes dissimulent qui parle, qui paie et comment la visibilité est conçue, les fondations du discours démocratique s’effondrent.
X ne se contente pas d’échouer au test de transparence – il le sape activement. Ses systèmes brouillent la ligne entre la viralité organique et la propagande payante, tandis que ses dirigeants profitent politiquement et financièrement de la confusion.
Ce n’est plus une question de politique de plateforme. C’est une question de responsabilité légale et de survie démocratique.
X opère comme un moteur publicitaire politique non déclaré. Il vend de l’influence, dissimule le parrainage, désactive la supervision et récompense le contenu qui sert au mieux les intérêts idéologiques et financiers de son propriétaire.
Les obligations légales sont claires. Les violations sont documentées. Les conséquences sont immenses.
Il est temps d’arrêter de prétendre que c’est un débat sur la liberté d’expression. Il est temps que les régulateurs agissent – et que les citoyens exigent que les plateformes qui façonnent la réalité politique soient soumises à la loi politique.
Ce n’est pas un bug. C’est le plan.