La democracia se basa en la idea de que es la ley, y no el código, la que rige la vida humana. Sin embargo, a medida que la inteligencia artificial asume funciones cada vez más normativas—clasificando discursos, prediciendo comportamientos, filtrando contenidos, asignando recursos—empieza a redefinir qué se considera legítimo, aceptable o verdadero.
Estas operaciones se asemejan a decisiones políticas, moldeadas por prioridades que permanecen opacas y fuera del alcance del control democrático. Son decisiones políticas tomadas por sistemas no electos y, a menudo, sin rendición de cuentas.
El peligro radica en sustituir el consentimiento informado por una aquiescencia silenciosa, y la legitimidad política por una credibilidad meramente procedimental.
Este artículo analiza un cambio crucial: la IA ya no es solo una herramienta utilizada en sociedades democráticas; se está convirtiendo en un espacio de producción normativa que compite con las propias instituciones democráticas. A medida que los sistemas de gobernanza migran de los parlamentos a las plataformas, de las constituciones a los algoritmos, surge la pregunta: ¿es siquiera posible una inteligencia democrática en un mundo gobernado por inteligencias artificiales?
El cambio silencioso de la ley al código
En las democracias liberales, se supone que las normas deben ser adoptadas por representantes electos, visibilizadas mediante la deliberación y restringidas por marcos constitucionales.
Pero como sostiene Giovanni De Gregorio, los sistemas de IA están produciendo normas de facto, moldeando comportamientos y expectativas de formas que eluden los mecanismos legales tradicionales.
Cuando los motores de búsqueda clasifican resultados o cuando los sistemas de moderación de contenidos deciden qué infringe las «normas comunitarias», están operacionalizando valores.
Esos valores no están inscritos en constituciones, sino en datos de entrenamiento, incentivos del mercado y limitaciones técnicas. A diferencia de la ley, las reglas algorítmicas no se debaten, no se hacen públicas ni se interpretan en tribunales. Se optimizan.
Como explica Elkin-Koren, estos sistemas actúan cada vez más como agentes reguladores en la esfera pública, filtrando el discurso político con una transparencia mínima.
Al hacerlo, erosionan gradualmente la distinción entre gobernanza e infraestructura, sustituyendo el debate por el código.
La IA como agente normativo sin público
La opacidad de los sistemas de IA pone de relieve su desconexión respecto a cualquier forma de responsabilidad democrática. Como sostiene Andreas Jungherr, las tecnologías de IA moldean cada vez más las condiciones estructurales de la vida democrática: definen cómo circula la información, cómo se forman las preferencias públicas y cómo se produce la legitimidad.
Lo que hace que este cambio sea especialmente significativo es la forma en que los sistemas de IA reordenan la arquitectura de la esfera pública. Influyen no solo en el contenido del discurso democrático, sino también en las condiciones de su aparición.
Esto implica una redistribución del poder comunicativo, donde la visibilidad y la influencia ya no están mediadas por instituciones públicas, sino por infraestructuras privadas optimizadas para captar la atención y maximizar la eficiencia.
En esta configuración, la confianza se convierte en un sustituto de la rendición de cuentas política. Los ciudadanos se relacionan con sistemas que se presentan como neutrales o inteligentes, no como representantes de la voluntad colectiva. El peligro radica en sustituir el consentimiento informado por una aquiescencia silenciosa, y la legitimidad política por una credibilidad procedimental.
Esta transformación reconfigura la estructura misma del demos. Los sistemas de IA median quién habla, quién es escuchado y qué puede conocerse. Moldean el entorno epistémico y afectivo en el que se forma la agencia política.
Antes de que un ciudadano pueda actuar, el terreno de acción posible ya ha sido filtrado algorítmicamente. Eso es lo que hace que el desafío sea tan urgente: el sujeto democrático está siendo redefinido desde abajo, por infraestructuras que nunca fueron diseñadas para sostener el autogobierno.
El auge del gobierno tecnológico
La teoría democrática tradicional se basa en la idea de que las reglas pueden ser impugnadas, interpretadas y modificadas por quienes están sujetos a ellas. Pero los modelos de aprendizaje automático no son interpretables de esa manera. Su lógica es probabilística, sus bucles de retroalimentación son opacos y sus criterios de optimización, invisibles para la mayoría de los usuarios.
Los sistemas de IA no solo moldean nuestras herramientas de gobernanza; también transforman las propias expectativas sobre lo que significa gobernar.
Esto da lugar a lo que De Gregorio denomina una nueva forma de poder normativo—no coercitivo, sino arquitectónico. Estructura el comportamiento sin necesidad de justificación. El riesgo no es solo el autoritarismo, sino una silenciosa reingeniería de la esfera pública mediante sistemas técnicos que se presentan como neutrales mientras imponen normas.
Cuando este poder se cruza con desigualdades sociales existentes, sus efectos se amplifican. Como documenta Spencer Overton en Overcoming Racial Harms to Democracy, los sistemas algorítmicos pueden reproducir e intensificar sesgos raciales, socavando la promesa misma de ciudadanía igualitaria. Y dado que estos sistemas operan a gran escala, su impacto es tanto generalizado como difícil de impugnar.
¿Es posible una IA democrática?
Algunos expertos abogan por el desarrollo de sistemas de IA democráticos: transparentes, responsables y participativos.
Los códigos voluntarios y las directrices éticas rara vez enfrentan las asimetrías estructurales entre el poder tecnológico privado y la supervisión pública.
El desafío no es solo hacer que la IA sea más justa, sino que su normatividad pueda ser objeto de debate.
Eso implica diseñar sistemas que no solo emitan decisiones, sino que revelen los valores que llevan incorporados. Implica inscribir los derechos no solo en los textos legales, sino también en las arquitecturas técnicas. Puede incluso requerir repensar el constitucionalismo en sí.
Si la IA ha de democratizarse, la comunidad política debe recuperar el control sobre las infraestructuras que moldean la vida pública. De lo contrario, los valores democráticos corren el riesgo de ser simulados en lugar de aplicados.
Conclusión: La lucha por la soberanía normativa
Los sistemas de IA no solo moldean nuestras herramientas de gobernanza; también transforman las propias expectativas sobre lo que significa gobernar.
A medida que su influencia crece, redefinen qué se considera participación legítima, qué se entiende por debate racional y qué formas de disenso son visibles o silenciadas.
Esa redefinición ocurre fuera del ámbito de la contestación pública, sin un marco constitucional ni deliberación democrática.
De este modo, el ascenso de la IA introduce un nuevo tipo de soberanía: técnica, infraestructural y ajena a los principios mismos del autogobierno colectivo.
La resiliencia de la democracia en este contexto depende de nuestra capacidad para reconocer la naturaleza política de la influencia normativa de la IA y de establecer mecanismos institucionales capaces de cuestionarla, limitarla y redirigirla.
Lo que está en juego es la autoridad para determinar cómo deben funcionar los sistemas de IA—y bajo qué marcos normativos.