Un término que antes buscaba nombrar y limitar las expresiones públicas más tóxicas, hoy se encuentra atrapado en un entramado de códigos legales, políticas privadas de plataformas y sensibilidades culturales cambiantes.
En tribunales, universidades y sistemas informáticos, la definición de discurso de odio se ha vuelto inestable y objeto de disputas. Lo que se sanciona en un país puede estar protegido en otro; lo que se elimina de una plataforma puede volverse tendencia en otra. Las jurisdicciones entran en conflicto, las herramientas de moderación fallan y las percepciones se polarizan—pero la regulación sigue adelante.
Los intentos de ampliar las definiciones de discurso de odio son vistos por sus críticos como ataques a la libertad de expresión, mientras que en otros círculos, no hacerlo se interpreta como una aprobación tácita de la discriminación.
Este artículo analiza cómo ese impulso regulador persiste a pesar de la ausencia de un estándar común. En lugar de tratar el discurso de odio como una categoría fija, examina cómo la ley, la tecnología y la ideología lo están transformando en un campo de lucha política y ambigüedad institucional.
Cuando el discurso de odio se enfrenta a sistemas jurídicos en conflicto
En la filosofía del derecho, la noción de discurso de odio sigue siendo objeto de debate. Para Jeremy Waldron, debe limitarse aquel discurso que menoscaba la dignidad fundamental de las personas o los grupos, con el fin de proteger las condiciones de una pertenencia igualitaria en la sociedad. Ronald Dworkin, en cambio, sostiene que incluso las expresiones de odio deben estar amparadas por principios sólidos de libertad de expresión, no porque sean inofensivas, sino porque su regulación pone en peligro el propio fundamento de la legitimidad democrática.
Esta divergencia filosófica se refleja en el ámbito jurídico. En los Estados Unidos, el discurso de odio está en gran medida protegido por la Primera Enmienda. En Europa y Canadá, diversas formas de este discurso están penalizadas bajo marcos jurídicos basados en la incitación, la discriminación o la dignidad. El resultado es un panorama legal en el que una misma expresión puede estar protegida en un país, sancionada en otro y señalada pero tolerada en redes sociales.
Moderación por máquina
El crecimiento de las plataformas digitales globales ha introducido un segundo nivel de incoherencia: la aplicación algorítmica. Plataformas como TikTok, Facebook y YouTube afirman moderar el discurso de odio mediante sistemas automatizados y supervisión humana. Pero varios estudios revelan cuán irregulares son realmente estos sistemas.
Un estudio sobre las prácticas de moderación en TikTok reveló discrepancias significativas según la región y el idioma en la manera en que se señalaba o ignoraba el discurso de odio. Otro estudio mostró que los modelos automáticos de detección suelen clasificar erróneamente contenido que no es odioso, especialmente en contextos políticamente sensibles o en dialectos de minorías.
Incluso cuando los sistemas de detección funcionan, la aplicación puede fallar. El discurso de odio en las plataformas suele difundirse mediante palabras codificadas, memes o expresiones recontextualizadas—formas que escapan a la moderación rígida basada en palabras clave. Además, la opacidad de los procesos algorítmicos hace casi imposible que los usuarios o los reguladores comprendan por qué se elimina cierto contenido mientras que otro igualmente ofensivo permanece.
Percepción social y polarización política
La variabilidad en la regulación del discurso de odio no es solo un problema jurídico o técnico—refleja divisiones sociales y políticas más profundas. Diversos estudios empíricos indican que la percepción de lo que se considera odio está fuertemente influida por la orientación ideológica.
Fischer et al. (2018) muestran que las personas tienden a percibir como odiosas las opiniones políticas opuestas, incluso cuando el contenido es equivalente. Dimant (2023) concluye que la polarización política intensifica las preferencias sociales por respuestas punitivas o permisivas ante discursos controvertidos. Esto sugiere que el discurso de odio no solo depende del contexto, sino que está mediado por factores emocionales y políticos.
Estos hallazgos ayudan a explicar por qué una misma protesta en un campus puede ser condenada como discurso de odio por un grupo y celebrada como expresión libre por otro. Lo mismo ocurre en los debates legislativos: los intentos de ampliar las definiciones de discurso de odio son vistos por algunos como ataques a la libertad de expresión, mientras que en otros círculos, no hacerlo se interpreta como una aprobación tácita de la discriminación.
Aplicación tecnológica sin consenso
Una de las consecuencias más preocupantes de esta fragmentación conceptual es que la aplicación de normas ocurre cada vez más sin transparencia ni rendición de cuentas. En la práctica, la autoridad para definir qué se considera odio ha pasado de los tribunales y legisladores a las políticas de las plataformas, aplicadas por equipos privados de moderación y sistemas de inteligencia artificial.
Los criterios de aplicación varían considerablemente incluso entre democracias liberales similares. Lo que se considera inaceptable en Alemania puede estar permitido en el Reino Unido, ser señalado en Canadá o simplemente quedar oculto por un algoritmo opaco en el contexto estadounidense. Esto genera confusión tanto para los usuarios como para los reguladores, especialmente cuando las plataformas operan a nivel transnacional.
Además, como sostiene Wang (2022) en su análisis retórico sobre las construcciones del discurso de odio, la etiqueta de “odio” se utiliza con frecuencia de forma estratégica. En lugar de reflejar una norma estable, se convierte en un terreno de disputa política. Los actores la emplean no solo para condenar la violencia o la incitación, sino también para deslegitimar visiones del mundo opuestas. Esto plantea una pregunta delicada: ¿el término “discurso de odio” protege a los vulnerables o se ha transformado en un instrumento para controlar la disidencia?
De la categoría al conflicto
Esto no significa que deba ignorarse el discurso de odio. Sus daños—sociales, psicológicos, políticos—son reales y están bien documentados. Pero la inconsistencia en su regulación y la ambigüedad estratégica en su uso apuntan a una crisis más profunda: las sociedades liberales intentan hacer cumplir una categoría sobre la que ya no existe consenso.
Los reguladores y las plataformas suelen buscar soluciones técnicas para lo que en el fondo es un problema normativo. Los modelos de detección se entrenan sin definiciones consensuadas; se aprueban leyes sin una base interpretativa compartida; y se elimina contenido según criterios opacos que varían entre jurisdicciones.
El problema no es solo definir el discurso de odio, sino decidir quién tiene el poder de definirlo. El término solía evocar una cierta claridad moral. Hoy en día, señala un equilibrio inestable entre obligación jurídica, discrecionalidad de las plataformas y conflicto social.
Hasta que esa tensión no se aborde de manera directa, el discurso de odio seguirá siendo menos una categoría jurídica que un reflejo de luchas más profundas por la autoridad, la identidad y la pertenencia.
¿Quién define hoy el discurso de odio?
Ninguna autoridad única posee ese poder. En su lugar, la definición surge de una tensión constante entre sistemas jurídicos nacionales, plataformas privadas y visiones ideológicas del mundo. Mientras los tribunales ofrecen interpretaciones divergentes, las plataformas aplican sus propias normas—a menudo mediante algoritmos opacos—y los actores políticos instrumentalizan el término de forma estratégica.
Como resultado, el discurso de odio ya no es un concepto legal fijo, sino un espacio de disputa donde convergen el derecho, la tecnología y el poder. Su definición depende no solo del contenido, sino también de quién habla, dónde lo hace y cómo se reciben sus palabras. Esa fragmentación no es una falla pasajera: es la condición actual de la regulación.