Deconstruir el auge sobre la IA y su impacto en las redes sociales

La evolución de la IA en la vida cotidiana plantea preguntas complejas sobre su papel, transparencia y las implicaciones más amplias para la sociedad.

Justin Grandinetti
Justin Grandinetti
La IA impulsa las redes sociales, determina el contenido y controla nuestras interacciones de maneras que a menudo pasan desapercibidas. Foto por Robin Worrall.

La evolución de la inteligencia artificial: De los sueños de ciencia ficción a la realidad cotidiana

Hubo un tiempo, aún en la memoria de muchos, en que el término “inteligencia artificial” evocaba imágenes de futuros lejanos de ciencia ficción donde los autómatas convivían con los humanos—en ocasiones en armonía utópica y asistencia útil, y en otras como gobernantes distópicos en relatos que advertían sobre el exceso de la humanidad en el desarrollo tecnológico. Sin embargo, a partir de 2024, la realidad cotidiana de la inteligencia artificial ha adquirido una significación más mundana, integrada e infraestructural.

Lo que ahora llamamos IA se aplica en diversos ámbitos, incluyendo la investigación científica y médica, la automatización industrial, la cartografía delictiva, el reconocimiento facial, los asistentes personales, el servicio al cliente, y—lo más relevante para esta discusión—las plataformas de redes sociales.

Aunque las discusiones sobre la IA son omnipresentes, nuestros encuentros reales con la IA a menudo ocurren en el trasfondo de las interacciones cotidianas.

En estos contextos, “inteligencia artificial” se describe más acertadamente como aprendizaje automático, donde grandes conjuntos de datos, una capacidad de almacenamiento sin precedentes y nuevas técnicas de análisis algorítmico convergen para facilitar el reconocimiento de patrones, la clasificación, la transcripción, la toma de decisiones automatizadas y la predicción.

Mitos y desinformación: Percepciones públicas del aprendizaje automático

Aunque el proceso de aprendizaje automático no es particularmente novedoso, persiste una considerable desinformación y divisiones perceptuales en la manera en que el público ve la IA. Los académicos han señalado durante mucho tiempo los mitos en torno a la IA y las “teorías populares” sobre los algoritmos, y encuestas recientes indican una creciente aprehensión pública respecto a la IA

El aprendizaje automático contemporáneo se asemeja más a una bola de cristal que a una máquina pensante.

Quizás lo más preocupante son los hallazgos de algunas encuestas que muestran que una parte de la población cree que la IA es sensible y consciente de sí misma, una desviación significativa de la realidad de lo que implica el aprendizaje automático.

Es probable que estos conceptos erróneos se alimenten del incesante auge generado por las grandes empresas tecnológicas, incluso cuando comienzan a aparecer grietas en sus narrativas. La IA a menudo se promociona como un medio para “impulsar la productividad,” sin embargo, esto se yuxtapone con meses de despidos masivos en la industria tecnológica.

La IA también requiere aumentos masivos en el consumo de energía en una era de cambio climático y redes eléctricas sobrecargadas. Además, se predice que la adopción creciente de la IA podría ampliar la brecha de ingresos entre el capital y el trabajo. Quizás la mayor preocupación para las entidades impulsadas por el lucro sea la proyección de que las inversiones masivas en IA podrían resultar finalmente no rentables.

La realidad opaca: Desentrañando los mecanismos ocultos de la IA

En cierto sentido, lo que hemos llegado a conocer como IA es tanto omnipresente como opaco. Aunque las discusiones sobre la IA son omnipresentes, nuestros encuentros reales con la IA a menudo ocurren en el trasfondo de las interacciones cotidianas. Los mecanismos de estos procesos de aprendizaje automático en segundo plano están intencionalmente ocultos; los algoritmos que impulsan las diversas formas de aprendizaje automático son secretos patentados y celosamente guardados.

Esto crea una situación familiar, pero bastante desalentadora: “compra el bombo, usa la tecnología, danos tus datos y no mires bajo el capó.” En lugar de aceptar esta “caja negra” incognoscible de la inteligencia artificial, los investigadores han ideado estrategias para desentrañar el misterio y comenzar a desmitificar los algoritmos que estructuran muchas de nuestras interacciones.

Los algoritmos de recomendación cambian en función de las prácticas de uso debido a la actividad del usuario y los datos.

Actualmente, modelos de lenguaje de gran escala como ChatGPT de OpenAI atraen una considerable atención; sin embargo, es crucial evaluar otras formas de aprendizaje automático que, aunque infraestructurales e invisibles, moldean las interacciones cotidianas, a menudo de maneras potencialmente dañinas. Inspirado por investigaciones recientes, me propuse entender mejor la inteligencia artificial incrustada en Facebook y TikTok.

Con este fin, examiné las recientes iniciativas de transparencia, las declaraciones oficiales de los representantes de las plataformas, y recopilé la información disponible sobre cómo se integra la IA en estas dos plataformas omnipresentes, con un enfoque particular en cómo la IA es promovida por las grandes tecnológicas como solución para la circulación de contenido problemático y peligroso, así como la desinformación y la información errónea.

La complejidad de definir la inteligencia artificial

Existen varios desafíos persistentes a la hora de evaluar críticamente los algoritmos de IA integrados.

Defining AI remains a complex challenge, as it transcends simple categorization, continuously evolving in ways that defy traditional boundaries.
Definir la IA sigue siendo un desafío complejo, ya que trasciende la categorización simple, evolucionando continuamente de maneras que desafían los límites tradicionales. Foto por Bumblebee (CC BY-SA).

Primero está la confusión que acompaña a la cuestión de lo que realmente implica la “IA.” Un vistazo a los orígenes históricos de la inteligencia artificial en la década de 1950 demuestra los cambios en los fundamentos teóricos y técnicos de la IA.

La IA es “sociotécnica,” en la medida en que está profundamente entrelazada con los contextos y situaciones en los que se despliega.

Es decir, la IA está impulsada no solo por estructuras computacionales (y sus limitaciones), sino también por una teoría de lo que constituye “inteligencia” en primer lugar.

Los algoritmos de aprendizaje automático que sustentan las plataformas de redes sociales son bastante diferentes de la IA simbólica de mediados de los años 50, tanto en diseño como en filosofía. A riesgo de simplificar en exceso, la IA clásica intentaba replicar la mente mediante la manipulación de símbolos comprensibles para los humanos según reglas subyacentes.

Estos modelos han sido en gran medida reemplazados por una noción más predictiva y analítica de la inteligencia, compuesta por algoritmos en capas, enormes conjuntos de datos y un poder de procesamiento sustancial. En otras palabras, el aprendizaje automático contemporáneo se asemeja más a una bola de cristal que a una máquina pensante.

En algunos encuentros cotidianos, como en las redes sociales, las versiones infraestructurales de la IA de aprendizaje automático a menudo se denominan “el algoritmo.” De esta manera, la IA también es relativamente polisémica en la forma en que se conceptualiza y se discute.

La naturaleza propietaria y la realidad sociotécnica de la IA

En segundo lugar, los modelos de IA a menudo están fuertemente protegidos por las empresas que quieren mantener una ventaja sobre sus competidores. Por ejemplo, aunque casi todas las plataformas de streaming emplean análisis predictivos para recomendar contenido, los tipos de conjuntos de datos utilizados en el entrenamiento de estos modelos, así como los parámetros que ponderan los algoritmos, varían según la plataforma.

 Los algoritmos de IA desempeñan un papel crucial en mejorar estas interacciones, desde aplicar filtros y efectos hasta seleccionar contenido personalizado para cada usuario.
Los algoritmos de IA en plataformas como TikTok y Facebook manipulan contenido personal, desde selfies hasta videos cortos, moldeando sutilmente las experiencias de los usuarios e influyendo en lo que vemos. Foto por Scouse-Smur (CC-BY-ND).

Estos algoritmos propietarios explican en parte por qué TikTok es tan popular mientras que YouTube Shorts no lo es, o por qué las personas prefieren Google a Bing a pesar de la similitud en la función de estas plataformas.

Es más esencial que nunca interrogar los aparatos discursivos y materiales de los modelos de aprendizaje automático incrustados.

En tercer lugar, existen suposiciones sobre la estabilidad algorítmica. Es decir, mientras que las grandes empresas tecnológicas y los científicos informáticos son rápidos en definir los algoritmos como técnicas computacionales establecidas, la realidad de los procesos de IA impulsados por datos es mucho más cambiante y entrelazada con lo social a través de conjuntos de datos.

Dicho de otra manera, la IA es “sociotécnica,” en la medida en que está profundamente entrelazada con los contextos y situaciones en los que se despliega. Los algoritmos de recomendación, por ejemplo, cambian en función de las prácticas de uso debido a la actividad del usuario y los datos. Este hecho permite la experimentación, la manipulación y la observación de algoritmos por parte de los investigadores.

Enfoques experimentales para comprender la IA

En resumen, evaluar cómo funciona la IA es un problema complejo: el término IA se usa libremente para referirse a una variedad de procesos técnicos impulsados por filosofías de la mente; la IA está históricamente condicionada; los modelos de IA son secretos propietarios; y la IA no es inherentemente un objeto técnico estable, sino que es sociotécnica. Por lo tanto, desentrañar los hilos de cómo funciona la IA incrustada es complicado, pero no imposible. Para hacerlo, se requieren no solo evaluaciones de la función técnica de la IA, sino también del contexto de uso, así como de cómo se enmarca la IA en los discursos por parte de las principales estructuras de poder.

La IA y el aprendizaje automático redefinen la percepción de las máquinas, mejorando la automatización y transformando las interacciones entre humanos y máquinas.
La IA y el aprendizaje automático redefinen la percepción de las máquinas, mejorando la automatización y transformando las interacciones humano-máquina. Foto por Ars Electronica (CC-BY-NC-ND).

Los académicos han recurrido recientemente a estrategias más experimentales para examinar la complejidad de los procesos algorítmicos incrustados. Esto incluye considerar la naturaleza relacional de los algoritmos, cómo los humanos y las máquinas están entrelazados en relaciones materiales, políticas, económicas y organizacionales complejas, y cómo los algoritmos son parte de patrones amplios de significado y práctica cultural que se pueden abordar empíricamente. Específicamente, me esforcé por acceder a la IA de aprendizaje automático incrustada de Facebook y TikTok como un “aparato material-discursivo.”

Esto requirió considerar los discursos oficiales que rodean las técnicas de IA de estas plataformas como una estructura de poder en términos de lo que es visible, decible y conocible sobre la IA, junto con información sobre cómo la IA está integrada en estas plataformas a través de algoritmos, conjuntos de datos, usuarios, plataformas, infraestructuras, moderadores, etc. Como tal, el uso de la IA como parte de Facebook y TikTok demuestra que la IA no existe en aislamiento como un objeto técnico estable, sino que se entiende mejor como un proceso en curso que depende de estrategias de aceptación a través de técnicas discursivas y de los arreglos materiales cambiantes de la incrustación cotidiana.

La relación de amor-odio con Facebook y TikTok

Facebook y TikTok son emblemáticos de nuestra relación de amor-odio con las plataformas. El potencial de estos nexos de redes sociales para reunir a las personas y fomentar nuevas conexiones se contrapone, a menudo con razón, con críticas bien merecidas y un aura de infamia.

Facebook ha sido popular durante dos décadas, mientras que el ascenso meteórico de TikTok es relativamente reciente. La demografía de Facebook ahora tiende a ser mayor, mientras que TikTok es emblemático de las interacciones digitales de las generaciones más jóvenes. Sin embargo, ambas plataformas comparten controversias.

Facebook está en el epicentro de debates sobre el sesgo, la propagación de la desinformación, la manipulación política, y las prácticas de intercambio de datos poco éticas. De manera similar, TikTok también ha sido objeto de críticas e incluso ha enfrentado prohibiciones en ciertos países por su percebida relación con el Partido Comunista Chino y sus prácticas de recopilación de datos.

Transparencia y las realidades de la moderación de la IA

Tanto Facebook como TikTok lanzaron iniciativas de transparencia que brindan detalles sobre cómo funcionan los algoritmos de aprendizaje automático incrustados en las plataformas.

Estas iniciativas, junto con las declaraciones y comentarios de los representantes de las plataformas, así como información adicional sobre cómo funcionan los algoritmos en cada plataforma, proporcionan una rara visión de cómo estas plataformas articulan su uso del aprendizaje automático, lo que a menudo contrasta con algunas de las realidades de estos procesos sociotécnicos.

Hay una ambigüedad intencional en torno a la IA que beneficia a las empresas tecnológicas.

Por ejemplo, Facebook ha invertido fuertemente en IA, incluyendo el lanzamiento de herramientas de IA de código abierto y la promoción de su sistema de IA Rosetta como clave para moderar contenido problemático que, si no se controla, puede circular fácilmente en la plataforma. Los detalles adicionales sobre cómo Facebook utiliza la IA para moderar el contenido arrojan algo de luz sobre cómo ha cambiado el proceso con el tiempo.

Las publicaciones que potencialmente contienen contenido dañino son marcadas, ya sea por usuarios o por filtros de aprendizaje automático; luego, un moderador humano revisa las publicaciones marcadas para eliminarlas. Además, mientras que este proceso funcionaba cronológicamente en el pasado, en el sentido de que las publicaciones se gestionaban en el orden en que se informaban, los nuevos algoritmos de Facebook priorizan lo que los moderadores deben revisar primero según criterios de viralidad, gravedad y la probabilidad de que una publicación infrinja las reglas de la plataforma.

Los límites de la IA de Facebook

Quizás lo más interesante de todo son las limitaciones del uso de la IA por parte de Facebook. Los filtros de aprendizaje automático de Facebook analizan las publicaciones a través de “embeddings de integridad de publicaciones completas” (WPIE), que evalúan varios elementos de una publicación determinada. Pero descomponer los elementos de la publicación en puntos de datos discretos que se comparan con casos anteriores significa que la IA de Facebook no puede determinar lo que las imágenes, los subtítulos y las relaciones con el autor revelan.

An image showing the Facebook logo on a large screen in the background, with a smartphone in the foreground displaying a picture of a prominent figure, symbolizing the intersection of AI-driven social media algorithms and high-profile individuals in online discourse
Los algoritmos de IA de Facebook juegan un papel crítico en la influencia de la opinión pública. Foto por Book Catalog.

Por ejemplo, una foto de cuadrados de Rice Krispies etiquetados como “delicias especiales” podría ser una referencia a comestibles con THC o simplemente a deliciosos productos horneados. Es tarea de un moderador humano aplicar razonamiento crítico para descifrar si el contenido marcado es realmente un problema que amerita ser eliminado.

Este ejemplo es relativamente trivial; sin embargo, estos moderadores humanos, que las plataformas hacen intencionalmente invisibles, están expuestos a algunos de los contenidos más horribles publicados en la web, a menudo con salarios bajos y sin apoyo para la salud mental.

El algoritmo de TikTok: Éxitos y deficiencias

La investigación sobre la IA de aprendizaje automático de TikTok plantea problemas similares. Debido a las controversias en torno al uso de datos por parte de la plataforma, TikTok ha sido relativamente transparente sobre su algoritmo.

La empresa señala que las recomendaciones se basan en factores como las interacciones de los usuarios (videos que les gustan o comparten, cuentas seguidas, comentarios publicados), la información del video (subtítulos, sonidos, hashtags) y la configuración del dispositivo y de la cuenta (preferencia de idioma, tipo de dispositivo, configuración del país).

Se ha especulado que la IA de TikTok puede reconocer imágenes en los videos subidos para la categorización, recomendación y moderación. Sin embargo, parece que, al igual que YouTube y Facebook, los modelos de aprendizaje automático de TikTok dependen principalmente de metadatos como descripciones, etiquetas, hora y ubicación de las cargas de video. En otras palabras, TikTok utiliza IA para la recomendación, selección y personalización, al igual que otras plataformas. Simplemente lo hace de manera más efectiva.

La ilusión de la independencia de la IA

Un aspecto notable de TikTok es que la plataforma enfatiza cómo el algoritmo propietario de la empresa interrumpe patrones repetitivos y contenido duplicado para diversificar las recomendaciones y “romper las burbujas de filtro.”

La investigación y la experimentación en torno a la propagación de contenido político radicalizado y controvertido en la plataforma han demostrado que la realidad de la IA rompe burbujas de TikTok y la moderación de contenido es insuficiente. Documentos filtrados sobre las directrices para los moderadores humanos revelaron que TikTok apuntaba a eliminar contenido de usuarios que tienen, o parecen tener, una “forma corporal anormal.”

Esto incluye a usuarios descritos como “rellenitos,” “obesos o demasiado delgados,” con “aspecto facial feo” o “deformidades faciales.” Las directrices también apuntaban a “personas mayores con demasiadas arrugas” y a quienes filmaban videos en entornos considerados “descuidados,” “deteriorados,” “barrios bajos” o “campos rurales.” La plataforma también estaba dispuesta a eliminar contenido político para apaciguar a ciertos gobiernos.

En resumen, la IA de aprendizaje automático se despliega de manera diferente en Facebook y TikTok, aunque estos modelos a menudo funcionan con fines similares. A pesar de las promesas de la IA, accesibles a través del posicionamiento discursivo de las declaraciones y los representantes de la plataforma, las realidades materiales de cómo funciona el aprendizaje automático a menudo no están a la altura de las expectativas.

Independientemente de la plataforma, la moderación humana (junto con los datos, el entrenamiento y la programación creados por humanos) está inexorablemente entrelazada con la IA. Y quizás lo más significativo de todo, sería una gran exageración considerar los modelos algorítmicos impulsados por datos como “inteligentes” en el sentido de que exista algún tipo de pensamiento crítico o incluso una fiabilidad particularmente impresionante.

El futuro de la IA cotidiana

El bombo es difícil de ignorar. Es innegablemente divertido imaginar las posibilidades de un futuro impulsado por la IA, en el que los modelos algorítmicos reemplazan tareas tediosas y mundanas, resuelven problemas complejos y liberan a los humanos de la monotonía. Las empresas tecnológicas quieren hacer creer al público que nuestro destino impulsado por la IA está a la vuelta de la esquina, pero la realidad es mucho más complicada.

La IA contemporánea puede ser impresionante e incluso útil en ocasiones, pero está muy lejos de la inteligencia humana. Estos modelos son hábiles para resolver ciertos tipos de problemas cerrados con objetivos claros—Deep Blue rivalizó con los maestros de ajedrez hace décadas. Sin embargo, tareas como moderar el discurso de odio en las plataformas no son juegos con permutaciones limitadas; son problemas complejos que implican conocimientos históricos y contemporáneos, juicio, contexto y pensamiento crítico. Hasta ahora, estos son algunos de los muchos problemas que el aprendizaje automático no puede resolver fácilmente, a pesar de las narrativas en sentido contrario de las grandes tecnológicas.

En medio de lo que muchos consideran una burbuja de la IA (quizás una que muestra signos de estallar), es más esencial que nunca interrogar los aparatos discursivos y materiales de los modelos de aprendizaje automático incrustados. Como se mencionó anteriormente, hay una ambigüedad intencional en torno a la IA que beneficia a las empresas tecnológicas. Esta opacidad contribuye a discusiones confusas en las que términos como algoritmos, aprendizaje automático, IA y big data se utilizan indistintamente para describir procesos informáticos infraestructurales e incrustados.

Lo más preocupante es que la impenetrabilidad de la IA lleva a afirmaciones audaces, confusión y una dependencia excesiva de la noción de que “la tecnología resolverá todo.” Por ejemplo, comentarios recientes de Bill Gates sugieren que la IA resolverá el problema de la demanda de energía de los centros de datos que alimentan la IA. O, como se ha resumido brevemente aquí, las afirmaciones de una moderación exitosa de la IA por parte de Facebook y TikTok, cuando los resultados reales son mucho más mixtos.

Lo que nos queda es una situación intencionalmente oscurecida—una que requiere ir más allá de los ciclos de auge para examinar de cerca la IA de aprendizaje automático incrustada. La investigación contemporánea ofrece estrategias novedosas para considerar cómo los procesos algorítmicos son tanto sociales como técnicos, junto con nuevas formas de acceder a la naturaleza cambiante del aprendizaje automático incrustado. La tarea continua para los investigadores es resistir la tentación de posicionar la IA como una entidad técnica estable o de creer en las narrativas de beneficios unilaterales de la IA. En cambio, deben examinar los arreglos materiales-discursivos en curso de lo que es la IA, en lo que se está convirtiendo y cómo se integra en las prácticas cotidianas.

Cómo citar este artículo

DON’T MISS AN ARTICLE

We don’t spam! Read our privacy policy for more info.

Compartir este artículo
Profesor adjunto en el Departamento de Estudios de la Comunicación y profesor afiliado en la Escuela de Ciencia de Datos de la Universidad de Carolina del Norte en Charlotte. Sus intereses de investigación se sitúan en la intersección de los medios móviles, los medios de transmisión, los grandes datos y la inteligencia artificial. Sus trabajos han aparecido en revistas como AI & Society, Mobile Media & Communication, Information, Communication & Society, y Critical Studies in Media Communication. Para más información, consulta: https://www.linkedin.com/in/justingrandinetti/