La démocratie repose sur l’idée que c’est la loi, et non le code, qui régit la vie humaine. Pourtant, à mesure que l’intelligence artificielle assume des fonctions de plus en plus normatives—en classant les discours, en prédisant les comportements, en filtrant les contenus, en allouant les ressources—elle commence à redéfinir ce qui est perçu comme légitime, acceptable ou vrai.
Ces opérations ressemblent à des décisions politiques, façonnées par des priorités opaques et à l’abri du contrôle démocratique. Ce sont des décisions politiques prises par des systèmes non élus et souvent dépourvus de responsabilité.
Le danger réside dans le fait de remplacer le consentement éclairé par une acceptation silencieuse, et la légitimité politique par une simple crédibilité procédurale.
Cet article examine un tournant décisif : l’IA n’est plus simplement un outil utilisé au sein des sociétés démocratiques ; elle devient un lieu de production normative qui rivalise avec les institutions démocratiques elles-mêmes. À mesure que les systèmes de gouvernance migrent des parlements vers les plateformes, des constitutions vers les algorithmes, une question s’impose : une intelligence démocratique est-elle encore possible dans un monde gouverné par des intelligences artificielles ?
Le glissement silencieux de la loi vers le code
Dans les démocraties libérales, les normes sont censées être édictées par des représentants élus, rendues visibles par la délibération et encadrées par des structures constitutionnelles.
Pero como sostiene Giovanni De Gregorio, los sistemas de IA están produciendo normas de facto, moldeando comportamientos y expectativas de formas que eluden los mecanismos legales tradicionales.
Lorsque les moteurs de recherche classent les résultats ou que les systèmes de modération de contenu décident de ce qui enfreint les « normes communautaires », ils mettent en œuvre des valeurs.
Ces valeurs ne sont pas ancrées dans des constitutions, mais dans les données d’apprentissage, les incitations du marché et les contraintes techniques. Contrairement à la loi, les règles algorithmiques ne sont ni débattues, ni rendues publiques, ni interprétées par les tribunaux. Elles sont optimisées.
Comme l’explique Elkin-Koren, ces systèmes agissent de plus en plus comme des agents régulateurs dans la sphère publique, filtrant le discours politique avec une transparence minimale.
Ce faisant, ils érodent progressivement la distinction entre gouvernance et infrastructure, en remplaçant la délibération par du code.
L’IA comme agent normatif sans public
L’opacité des systèmes d’IA souligne leur détachement de toute forme de responsabilité démocratique. Comme l’affirme Andreas Jungherr, les technologies de l’IA façonnent de plus en plus les conditions structurelles de la vie démocratique : elles définissent la circulation de l’information, la formation des préférences publiques et la production de la légitimité.
Ce qui rend ce changement particulièrement important, c’est la manière dont les systèmes d’IA réorganisent l’architecture de la sphère publique. Ils influencent non seulement le contenu du discours démocratique, mais aussi les conditions de son émergence.
Cela implique une redistribution du pouvoir communicationnel, où la visibilité et l’influence ne sont plus médiées par des institutions publiques, mais par des infrastructures privées optimisées pour l’attention et l’efficacité.
Dans une telle configuration, la confiance remplace la responsabilité politique. Les citoyens interagissent avec des systèmes qui se présentent comme neutres ou intelligents, et non comme des représentants de la volonté collective. Le danger réside dans le remplacement du consentement éclairé par une acceptation silencieuse, et de la légitimité politique par une crédibilité procédurale.
Cette transformation redéfinit la structure même du demos. Les systèmes d’IA déterminent qui parle, qui est entendu et ce qui peut être su. Ils façonnent l’environnement épistémique et affectif dans lequel émerge l’action politique.
Avant qu’un citoyen ne puisse agir, le champ d’action possible a déjà été filtré par des algorithmes. C’est ce qui rend le défi si urgent : le sujet démocratique est redéfini depuis la base, par des infrastructures qui n’ont jamais été conçues pour soutenir l’autogouvernement.
L’essor du règne de la technologie
La théorie démocratique traditionnelle repose sur l’idée que les règles peuvent être contestées, interprétées et modifiées par ceux qu’elles gouvernent. Mais les modèles d’apprentissage automatique ne sont pas interprétables de cette manière. Leur logique est probabiliste, leurs boucles de rétroaction sont obscures, et leurs critères d’optimisation sont invisibles pour la plupart des utilisateurs.
Les systèmes d’IA ne façonnent pas seulement nos outils de gouvernance ; ils redéfinissent les attentes mêmes de la gouvernance.
Cela engendre ce que De Gregorio appelle une nouvelle forme de pouvoir normatif—non pas coercitif, mais architectural. Il structure les comportements sans recourir à la justification. Le danger ne réside pas uniquement dans l’autoritarisme, mais dans une réingénierie silencieuse de la sphère publique à travers des systèmes techniques qui revendiquent la neutralité tout en imposant des normes.
Lorsque ce pouvoir croise des inégalités sociales préexistantes, ses effets sont amplifiés. Comme le documente Spencer Overton dans Overcoming Racial Harms to Democracy, les systèmes algorithmiques peuvent reproduire et intensifier les biais raciaux, sapant ainsi la promesse même d’une citoyenneté égalitaire. Et comme ces systèmes opèrent à grande échelle, leur impact est à la fois massif et difficile à contester.
Une IA démocratique est-elle possible ?
Certains chercheurs plaident pour le développement de systèmes d’IA démocratiques : transparents, responsables et participatifs.
Mais même les cadres de gouvernance les mieux intentionnés manquent souvent de mécanismes contraignants.
Les codes volontaires et les lignes directrices éthiques affrontent rarement les asymétries structurelles entre le pouvoir technologique privé et la supervision publique.
Le défi ne consiste pas seulement à rendre l’IA plus équitable, mais à rendre sa normativité contestable.
Cela implique de concevoir des systèmes qui ne se contentent pas de produire des décisions, mais qui rendent visibles les valeurs qu’ils incarnent. Cela signifie intégrer les droits non seulement dans les textes juridiques, mais aussi dans les architectures techniques. Cela pourrait même nécessiter de repenser le constitutionnalisme lui-même.
Si l’IA doit être démocratisée, la communauté politique doit reprendre le contrôle des infrastructures qui structurent la vie publique. Sinon, les valeurs démocratiques risquent d’être simulées plutôt que mises en œuvre.
Conclusion : La lutte pour la souveraineté normative
Les systèmes d’IA ne façonnent pas seulement nos outils de gouvernance ; ils redéfinissent les attentes mêmes de la gouvernance.
À mesure que leur influence s’accroît, ils redéfinissent ce qui est considéré comme une participation légitime, un débat rationnel, ainsi que les formes de dissidence visibles ou réduites au silence.
Cette redéfinition a lieu en dehors du champ de la contestation publique, sans cadre constitutionnel ni délibération démocratique.
Ainsi, la montée en puissance de l’IA introduit une nouvelle forme de souveraineté : technique, infrastructurelle, et déconnectée des principes mêmes de l’autogouvernement collectif.
La résilience de la démocratie dans ce contexte repose sur notre capacité à reconnaître la nature politique de l’influence normative de l’IA et à mettre en place des mécanismes institutionnels capables de la contester, de la limiter et de la réorienter.
Ce qui est en jeu, c’est l’autorité de déterminer comment les systèmes d’IA doivent fonctionner—et selon quels cadres normatifs.