Un terme autrefois destiné à nommer et restreindre les formes d’expression publique les plus toxiques est désormais pris dans un enchevêtrement de lois, de politiques privées de plateformes et de sensibilités culturelles en mutation.
Dans les tribunaux, sur les campus et dans les systèmes numériques, la définition du discours de haine est devenue instable et contestée. Ce qui est sanctionné dans un pays peut être protégé dans un autre ; ce qui est supprimé d’une plateforme peut devenir tendance sur une autre. Les juridictions s’affrontent, les outils de modération échouent et les perceptions se polarisent—mais la régulation continue.
Les tentatives d’élargir les définitions du discours de haine sont perçues par leurs détracteurs comme des attaques contre la liberté d’expression, tandis que dans d’autres milieux, ne pas le faire est interprété comme une approbation tacite de la discrimination.
Cet article explore comment cet élan réglementaire persiste malgré l’absence de norme partagée. Plutôt que de traiter le discours de haine comme une catégorie figée, il examine comment le droit, la technologie et l’idéologie le transforment en un terrain de lutte politique et d’ambiguïté institutionnelle.
Lorsque le discours de haine se heurte à des systèmes juridiques contradictoires
En philosophie du droit, la notion de discours de haine reste controversée. Pour Jeremy Waldron, les propos qui portent atteinte à la dignité fondamentale des individus ou des groupes doivent être restreints afin de préserver les conditions d’une appartenance égalitaire à la société. Ronald Dworkin, en revanche, soutient que même les propos haineux doivent être protégés par des principes solides de liberté d’expression—non pas parce qu’ils sont inoffensifs, mais parce que leur régulation menace les fondements mêmes de la légitimité démocratique.
Cette divergence philosophique se reflète dans le droit. Aux États-Unis, le discours de haine est largement protégé par le Premier Amendement. En Europe et au Canada, différentes formes de ce discours sont criminalisées dans des cadres juridiques fondés sur l’incitation, la discrimination ou la dignité. Il en résulte un paysage juridique où une même déclaration peut être protégée dans un pays, sanctionnée dans un autre, et signalée mais tolérée sur les réseaux sociaux.
Modération par machine
La montée en puissance des plateformes numériques mondiales a introduit un second niveau d’incohérence : l’application algorithmique. Des plateformes comme TikTok, Facebook et YouTube prétendent modérer les discours de haine grâce à des systèmes automatisés et à une supervision humaine. Mais plusieurs études montrent à quel point ces systèmes sont inégaux.
Une étude sur les pratiques de modération de TikTok a mis en évidence d’importantes disparités régionales et linguistiques dans la manière dont les discours de haine étaient signalés ou ignorés. Une autre étude a démontré que les modèles automatiques de détection classent souvent à tort des contenus non haineux, en particulier dans des contextes politiquement sensibles ou dans des dialectes minoritaires.
Même lorsque les systèmes de détection réussissent, leur application peut échouer. Les discours de haine sur les plateformes se diffusent fréquemment à travers des mots codés, des mèmes ou des propos recontextualisés—des formes qui échappent à une modération rigide fondée sur des mots-clés. De plus, l’opacité des processus algorithmiques rend quasiment impossible pour les utilisateurs ou les régulateurs de comprendre pourquoi certains contenus sont supprimés tandis que d’autres, tout aussi offensants, restent accessibles.
Perception sociale et polarisation politique
La variabilité de la régulation des discours de haine n’est pas seulement un problème juridique ou technique—elle reflète des clivages sociaux et politiques plus profonds. Plusieurs études empiriques montrent que la perception de ce qui constitue un discours haineux est fortement influencée par l’alignement idéologique.
Fischer et al. (2018) démontrent que les individus sont plus enclins à percevoir les opinions politiques opposées comme haineuses, même lorsque le contenu est équivalent. Dimant (2023) constate que la polarisation politique renforce les préférences sociales pour des réponses punitives ou permissives face aux discours controversés. Cela suggère que le discours de haine n’est pas seulement contextuel, mais aussi médié par des facteurs émotionnels et politiques.
Ces résultats permettent de comprendre pourquoi une même manifestation sur un campus peut être dénoncée comme haineuse par un groupe et saluée comme une expression libre par un autre. Il en va de même pour les débats législatifs : les efforts visant à élargir les définitions du discours de haine sont perçus par certains comme des atteintes à la liberté d’expression, tandis que dans d’autres cercles, ne pas le faire est interprété comme une approbation tacite de la discrimination.
Application technologique sans consensus
L’une des conséquences les plus préoccupantes de cette fragmentation définitionnelle est que l’application des règles se fait de plus en plus sans transparence ni responsabilité. En pratique, l’autorité de déterminer ce qui constitue un discours haineux est passée des tribunaux et des législateurs aux politiques des plateformes, mises en œuvre par des équipes privées de modération et des systèmes d’intelligence artificielle.
Les normes d’application diffèrent largement même au sein de démocraties libérales comparables. Ce qui est jugé inacceptable en Allemagne peut être autorisé au Royaume-Uni, signalé au Canada, ou simplement enfoui par un algorithme opaque dans le contexte des États-Unis. Cela crée une confusion pour les utilisateurs comme pour les régulateurs, en particulier lorsque les plateformes opèrent à l’échelle transnationale.
De plus, comme l’affirme Wang (2022) dans son analyse rhétorique des cadrages du discours de haine, le label de “haine” est souvent utilisé de manière stratégique. Plutôt que de refléter une norme stable, il devient un espace de lutte politique. Les acteurs l’utilisent non seulement pour condamner la violence ou l’incitation, mais aussi pour disqualifier des visions du monde opposées. Cela soulève une question délicate : le terme “discours de haine” protège-t-il les plus vulnérables, ou est-il devenu un outil de contrôle de la dissidence ?
De la catégorie au conflit
Il ne s’agit pas de dire que le discours de haine doit être ignoré. Ses effets—sociaux, psychologiques, politiques—sont réels et bien documentés. Mais l’incohérence de sa régulation et l’ambiguïté stratégique de son usage révèlent une crise plus profonde : les sociétés libérales tentent d’imposer une catégorie sur laquelle elles ne s’accordent plus.
Les régulateurs et les plateformes cherchent souvent des solutions techniques à un problème qui est en réalité normatif. Les modèles de détection sont entraînés sans définitions consensuelles ; des lois sont adoptées sans socle interprétatif commun ; et les contenus sont supprimés selon des normes opaques qui varient d’une juridiction à l’autre.
Le problème n’est pas seulement de définir le discours de haine, mais de savoir qui a le pouvoir de le faire. Autrefois, le terme évoquait une forme de clarté morale. Aujourd’hui, il reflète un équilibre instable entre obligation juridique, marge de manœuvre des plateformes et conflit social.
Tant que cette tension ne sera pas abordée de manière frontale, le discours de haine restera moins une catégorie juridique qu’un terrain de luttes profondes autour de l’autorité, de l’identité et de l’appartenance.
Qui définit aujourd’hui le discours de haine ?
Aucune autorité unique ne détient ce pouvoir. La définition émerge plutôt d’une tension continue entre systèmes juridiques nationaux, plateformes privées et visions idéologiques. Tandis que les tribunaux proposent des interprétations divergentes, les plateformes appliquent leurs propres règles—souvent à l’aide d’algorithmes opaques—et les acteurs politiques instrumentalisent le terme de manière stratégique.
En conséquence, le discours de haine n’est plus un concept juridique stable, mais un champ de bataille où se croisent droit, technologie et pouvoir. Sa définition dépend non seulement du contenu, mais aussi de qui parle, où cela se passe, et comment les paroles sont perçues. Cette fragmentation n’est pas un défaut temporaire : c’est l’état actuel de la régulation.