
Si la liberté d’expression est aujourd’hui sous contrôle des mégafirmes, ce n’est pas parce qu’elles auraient conquis ce pouvoir de force, mais parce que les États ont renoncé à l’exercer. En France comme ailleurs, les citoyens ont grandi avec l’idée que ce droit fondamental est garanti par les constitutions et les lois. Or, à l’ère numérique, ce principe ne se joue plus principalement dans les parlements ou devant les tribunaux. Il se décide dans les bureaux feutrés des grandes entreprises du web.
Google, Meta, X, TikTok et quelques autres fixent chaque jour ce qui est visible, audible ou marginalisé. Leurs décisions façonnent l’espace public bien plus concrètement que nombre de lois. Une publication peut disparaître en quelques secondes, un compte être suspendu sans explication détaillée, une idée être rendue invisible sans jamais être formellement interdite. Tout cela sans débat public, sans juge, sans véritable recours.
La liberté d’expression n’a pas disparu. Elle a été externalisée.
Des décisions arbitraires au nom des « règles communautaires »
Lorsqu’une plateforme supprime un contenu ou restreint un compte, elle invoque presque systématiquement le respect de ses « règles communautaires ». Ces règles posent un problème fondamental : elles ne sont ni votées par des institutions démocratiques, ni stables, ni soumises à un contrôle indépendant. Elles peuvent évoluer du jour au lendemain, au gré d’une pression médiatique, politique ou commerciale.
Un propos jugé acceptable un lundi peut devenir sanctionnable le mardi. La norme n’est plus juridique, elle est contractuelle. Et encore : un contrat sans négociation, imposé unilatéralement, que l’utilisateur accepte faute d’alternative réelle.
Les plateformes se retranchent derrière leur statut d’entreprises privées. Mais cette défense est de moins en moins crédible. Leur pouvoir d’influence sur l’opinion publique dépasse celui de nombreux États. Elles contrôlent les canaux principaux de diffusion de l’information, structurent la visibilité des idées et orientent les débats. La régulation du discours public n’a pas disparu : elle a simplement été privatisée.
Liberté d’expression sans garanties juridiques
Le cœur du problème est là. La liberté d’expression, au sens juridique, suppose des garanties précises : la légalité des règles, leur prévisibilité, la proportionnalité des sanctions, le droit au contradictoire, l’existence d’un recours effectif devant une autorité indépendante. Or, dans l’univers des plateformes, aucune de ces garanties n’est réellement assurée.
Un algorithme décide, une modération applique, et l’utilisateur subit. Il n’y a pas de juge, pas de motivation détaillée, pas de hiérarchie des normes. La sanction peut être immédiate, définitive, et parfois opaque. Même lorsqu’un mécanisme de recours existe, il reste interne à la plateforme, donc juge et partie.
On ne parle plus d’un droit protégé, mais d’une tolérance conditionnelle. La liberté d’expression existe tant qu’elle ne contrevient pas aux intérêts, à l’image ou aux orientations implicites de l’acteur privé qui contrôle l’infrastructure. Ce glissement est majeur : le droit cède la place à la politique interne d’entreprise.
Les États, complices ou impuissants ?
Face à cette situation, les États réagissent peu, ou mal. Certains sont objectivement impuissants face à des entreprises dont les moyens financiers, techniques et juridiques dépassent largement leur périmètre national. D’autres, en revanche, trouvent dans cette situation un certain confort politique.
La sous-traitance de la censure permet aux gouvernements de se défausser. Lorsqu’un contenu disparaît, ils peuvent dire : « ce n’est pas nous ». Lorsqu’un débat est étouffé, ils invoquent la responsabilité de la plateforme. Cette délégation informelle évite les coûts politiques d’une censure assumée, tout en produisant des effets comparables.
L’inaction se manifeste aussi dans l’absence de stratégie industrielle et numérique. L’exemple de Dailymotion en France est révélateur : une plateforme nationale, disposant d’un savoir-faire et d’une audience initiale, laissée sans ambition réelle, sans investissements massifs, sans protection stratégique. Ce renoncement a ouvert un boulevard aux géants américains, qui verrouillent désormais presque totalement le marché.
L’algorithme comme censeur invisible
La censure contemporaine ne prend plus nécessairement la forme d’une interdiction explicite. Elle est plus efficace lorsqu’elle est invisible. Déréférencement, baisse de portée, suppression de recommandations, démonétisation : autant de mécanismes qui réduisent l’impact d’un contenu sans jamais l’interdire formellement.
Ce mode de régulation est redoutablement efficace. Il ne provoque ni scandale, ni mobilisation, ni débat juridique. Le contenu existe toujours, mais personne ne le voit. Le discours n’est pas supprimé, il est neutralisé.
L’algorithme devient ainsi un acteur politique central, sans responsabilité politique. Il façonne ce qui émerge dans l’espace public, ce qui reste marginal, ce qui disparaît dans le bruit. Ce pouvoir est exercé sans transparence réelle, sans contrôle démocratique, et sans obligation de rendre des comptes.
Les illusions de l’alternative
Face à cette domination, on évoque souvent des alternatives « indépendantes ». Mais beaucoup de ces solutions reposent, en réalité, sur les infrastructures des mêmes acteurs dominants. Des moteurs de recherche présentés comme éthiques utilisent les résultats ou les API de Bing ou de Google. Des navigateurs alternatifs intègrent par défaut les services publicitaires ou de recherche des GAFAM.
Même lorsque l’interface change, le cœur technique reste captif : serveurs, clouds, réseaux de diffusion, magasins d’applications, standards techniques. L’utilisateur a l’illusion du choix, mais la dépendance structurelle demeure.
Les initiatives réellement indépendantes existent, mais elles affrontent des obstacles considérables : coûts techniques élevés, difficulté d’accès au public, absence de soutien politique massif. Dans un écosystème verrouillé, émerger sans appui étatique relève presque de l’exploit.
Pourquoi cela nous concerne tous
Certains objectent qu’ils n’ont « rien à cacher » et qu’ils ne sont pas concernés. C’est une erreur classique. La liberté d’expression ne sert pas seulement à protéger ses propres propos, mais à garantir la diversité des idées, y compris celles que l’on rejette.
Quand une poignée d’acteurs privés décide ce qui mérite d’être vu, entendu ou ignoré, ce n’est pas seulement un droit individuel qui est en jeu, mais l’équilibre démocratique lui-même. Aujourd’hui, un algorithme peut invisibiliser une cause. Demain, il peut redéfinir ce qui est socialement acceptable de penser ou de dire.
Reprendre la main
Préserver une véritable liberté d’expression suppose de sortir de cette dépendance. Cela passe par des lois imposant une transparence réelle des règles de modération, une explicitation des décisions algorithmiques, et un droit de recours effectif devant des instances indépendantes.
Cela passe aussi par une politique industrielle assumée : soutien à des infrastructures alternatives, financées et contrôlées collectivement, capables d’offrir de véritables espaces publics numériques. Sans cela, la parole continuera de se concentrer entre les mains d’acteurs privés dont la légitimité démocratique est nulle.
La liberté d’expression n’a pas disparu. Elle a été sous-traitée. Et tant que cette délégation ne sera pas remise en cause, elle restera fondamentalement fragile.
Bibliographie commentée
-
Hannah Arendt, La crise de la culture, Gallimard
Pour comprendre la différence entre jugement politique, jugement moral et responsabilité publique, et ce qui se perd quand ces distinctions disparaissent.
-
Tim Wu, The Master Switch, Vintage
Analyse historique de la concentration des médias et des infrastructures de communication, montrant comment le contrôle privé finit toujours par poser un problème démocratique.
-
Shoshana Zuboff, The Age of Surveillance Capitalism, PublicAffairs
Ouvrage central pour comprendre comment les plateformes organisent le pouvoir par la capture des comportements, les algorithmes et l’opacité décisionnelle.
-
Lawrence Lessig, Code and Other Laws of Cyberspace, Basic Books
Référence fondamentale sur l’idée que le code fait loi : dans le numérique, ce ne sont plus seulement les textes juridiques qui régulent, mais l’architecture technique elle-même.
-
Dominique Cardon, À quoi rêvent les algorithmes, Seuil
Analyse accessible et rigoureuse du rôle politique des algorithmes dans la hiérarchisation de l’information et la fabrication de la visibilité.
Comprendre le monde à sa racine entre éclats d’histoire, failles stratégiques, mémoires tues et formes vivantes de culture.
Une traversée des siècles pour retrouver ce qui, dans le tumulte, nous tient encore debout.
Voir au-delà des discours là où se forment les véritables structures du pouvoir.
Revenir aux lignes de fracture pour comprendre ce que le passé laisse en héritage.
Entrer dans un monde en construction un espace où les récits se tissent.
Suivre les lignes de force de l’imaginaire entre arts, formes, symboles et récits.
Le pouvoir n’est jamais là où on le montre.
Si quelque chose a grincé ici, d’autres textes en décalent encore les lignes.
Quand tout s’effondre sans bruit, il faut parfois remonter les flux. le fil est la, il attend
L’empire doute, mais continue de frapper. la suite de cette tension est encore visible ailleurs.