Déconstruire le battage médiatique autour de l'IA et son impact sur les réseaux sociaux

L'évolution de l'IA dans la vie quotidienne soulève des questions complexes sur son rôle, sa transparence et les implications plus larges pour la société.

Justin Grandinetti
Justin Grandinetti
L'IA alimente les réseaux sociaux, détermine le contenu et contrôle nos interactions de manière souvent ignorée. Photo par Robin Worrall.

L'évolution de l'intelligence artificielle : Des rêves de science-fiction à la réalité quotidienne

Il fut un temps, encore dans la mémoire de beaucoup, où le terme “intelligence artificielle” évoquait des images de futurs lointains de science-fiction où les automates cohabitaient avec les humains—parfois dans une harmonie utopique et une aide précieuse, d'autres fois en tant que maîtres dystopiques dans des récits avertissant de la démesure humaine dans le développement technologique. Cependant, en 2024, la réalité quotidienne de l'intelligence artificielle a pris une signification plus banale, intégrée et infrastructurelle.

Ce que nous appelons aujourd'hui l'IA s'applique dans divers domaines, y compris la recherche scientifique et médicale, l'automatisation industrielle, la cartographie criminelle, la reconnaissance faciale, les assistants personnels, le service client, et—ce qui est le plus pertinent pour cette discussion—les plateformes de réseaux sociaux.

Bien que les discussions sur l'IA soient omniprésentes, nos rencontres réelles avec l'IA se produisent souvent en arrière-plan de nos interactions quotidiennes.

Dans ces contextes, l'“intelligence artificielle” est plus précisément décrite comme de l'apprentissage automatique, où de grands ensembles de données, une capacité de stockage sans précédent et de nouvelles techniques d'analyse algorithmique convergent pour faciliter la reconnaissance des motifs, la classification, la transcription, la prise de décision automatisée et la prédiction.

Mythes et désinformation : Perceptions publiques de l'apprentissage automatique

Bien que le processus d'apprentissage automatique ne soit pas particulièrement nouveau, il reste une désinformation significative et des clivages perceptuels sur la façon dont le public perçoit l'IA. Les chercheurs ont longtemps noté les mythes entourant l'IA et les “théories populaires” des algorithmes, et des enquêtes récentes indiquent une appréhension croissante du public vis-à-vis de l'IA

L'apprentissage automatique contemporain ressemble davantage à une boule de cristal qu'à une machine pensante.

Peut-être que le plus troublant, ce sont les résultats de certaines enquêtes qui montrent que certaines personnes croient que l'IA est sensible et consciente d'elle-même, un écart important par rapport à la réalité de ce qu'implique l'apprentissage automatique.

Ces idées fausses sont probablement alimentées par le battage médiatique incessant généré par les grandes entreprises technologiques, même si des fissures commencent à apparaître dans leurs récits. L'IA est souvent présentée comme un moyen de “booster la productivité,” mais cela contraste avec des mois de licenciements massifs dans l'industrie technologique.

L'IA nécessite également une augmentation massive de la consommation d'énergie dans une ère de changement climatique et des réseaux électriques tendus. De plus, on prévoit que l'adoption croissante de l'IA pourrait élargir l'écart de revenus entre le capital et le travail. Peut-être la plus grande préoccupation pour les entités motivées par le profit est-elle la prévision selon laquelle les investissements massifs dans l'IA pourraient s'avérer finalement non rentables.

La réalité opaque : Déballer les mécanismes cachés de l'IA

En un sens, ce que nous appelons aujourd'hui l'IA est à la fois omniprésent et opaque. Bien que les discussions sur l'IA soient omniprésentes, nos rencontres réelles avec l'IA se produisent souvent en arrière-plan de nos interactions quotidiennes. Les mécanismes de ces processus d'apprentissage automatique en arrière-plan sont intentionnellement obscurcis ; les algorithmes qui sous-tendent diverses formes d'apprentissage automatique sont des secrets de propriété étroitement gardés.

Cela crée une situation à la fois déconcertante et familière : “croyez au battage médiatique, utilisez la technologie, donnez-nous vos données, et ne regardez pas sous le capot.” Plutôt que d'accepter cette “boîte noire” impénétrable de l'intelligence artificielle, les chercheurs ont conçu des stratégies pour lever le mystère et commencer à démystifier les algorithmes qui structurent bon nombre de nos interactions.

Les algorithmes de recommandation évoluent en fonction des pratiques d'utilisation, en raison de l'activité des utilisateurs et des données.

Actuellement, les grands modèles de langage comme ChatGPT d'OpenAI attirent une attention considérable ; cependant, il est crucial d'évaluer d'autres formes d'apprentissage automatique qui, bien qu'infrastructurelles et invisibles, façonnent les interactions quotidiennes, souvent de manière potentiellement nuisible. Inspiré par des recherches récentes, je me suis efforcé de mieux comprendre l'intelligence artificielle intégrée à Facebook et TikTok.

À cette fin, j'ai examiné les récentes initiatives de transparence, les déclarations officielles des représentants des plateformes, et j'ai rassemblé les informations disponibles sur la manière dont l'IA est intégrée dans ces deux plateformes omniprésentes, avec un accent particulier sur la manière dont l'IA est promue par les grandes entreprises technologiques comme solution à la circulation de contenus problématiques et dangereux, ainsi que de la désinformation et de la mésinformation.

La complexité de définir l'intelligence artificielle

Il existe plusieurs défis persistants lorsqu'il s'agit d'évaluer de manière critique les algorithmes d'IA intégrés.

Defining AI remains a complex challenge, as it transcends simple categorization, continuously evolving in ways that defy traditional boundaries.
Définir l'IA reste un défi complexe, car elle transcende les catégories simples, évoluant continuellement de manière à défier les frontières traditionnelles. Photo par Bumblebee (CC BY-SA).

La première est la confusion qui entoure la question de ce que signifie réellement l'“IA.” Un regard sur les origines historiques de l'intelligence artificielle dans les années 1950 montre l'évolution des bases théoriques et techniques de l'IA.

L'IA est “sociotechnique,” dans la mesure où elle est profondément liée aux contextes et aux situations dans lesquels elle est déployée.

C'est-à-dire que l'IA est pilotée non seulement par des structures computationnelles (et leurs limitations), mais aussi par une théorie de ce qui constitue l'“intelligence” en premier lieu.

Les algorithmes d'apprentissage automatique qui sous-tendent les plateformes de réseaux sociaux sont très différents de l'IA symbolique du milieu des années 1950, tant par leur conception que par leur philosophie. Au risque de simplifier à l'excès, l'IA classique tentait de reproduire l'esprit par la manipulation de symboles lisibles par l'homme, selon des règles sous-jacentes.

Ces modèles ont été en grande partie remplacés par une notion plus prédictive et analytique de l'intelligence, composée d'algorithmes multicouches, de gigantesques ensembles de données et d'une puissance de traitement considérable. En d'autres termes, l'apprentissage automatique contemporain ressemble davantage à une boule de cristal qu'à une machine pensante.

Dans certaines rencontres quotidiennes, comme sur les réseaux sociaux, les versions infrastructurelles de l'IA d'apprentissage automatique sont souvent appelées “l'algorithme.” De cette manière, l'IA est également relativement polysémique dans la manière dont elle est conceptualisée et discutée.

La nature propriétaire et la réalité sociotechnique de l'IA

Deuxièmement, les modèles d'IA sont souvent fortement protégés par les entreprises qui veulent garder une longueur d'avance sur leurs concurrents. Par exemple, bien que presque toutes les plateformes de streaming utilisent des analyses prédictives pour recommander du contenu, les types de jeux de données utilisés pour former ces modèles, ainsi que les paramètres que les algorithmes pondèrent, varient d'une plateforme à l'autre.

 Les algorithmes d'IA jouent un rôle crucial dans l'amélioration de ces interactions, de l'application de filtres et d'effets à la curation de contenu personnalisé pour chaque utilisateur.
Les algorithmes d'IA sur des plateformes comme TikTok et Facebook manipulent le contenu personnel, des selfies aux vidéos courtes, en façonnant subtilement les expériences des utilisateurs et en influençant ce que nous voyons. Photo par Scouse-Smur (CC-BY-ND).

Ces algorithmes propriétaires expliquent en partie pourquoi TikTok est si populaire tandis que YouTube Shorts ne l'est pas, ou pourquoi les gens préfèrent Google à Bing malgré la similarité de la fonction de ces plateformes.

Il est plus essentiel que jamais d'interroger les appareils discursifs et matériels des modèles d'apprentissage automatique intégrés.

Troisièmement, il existe des hypothèses sur la stabilité algorithmique. En d'autres termes, tandis que les grandes entreprises technologiques et les informaticiens sont prompts à définir les algorithmes comme des techniques computationnelles établies, la réalité des processus d'IA intégrés et axés sur les données est beaucoup plus changeante et étroitement liée au social via les ensembles de données.

Autrement dit, l'IA est “sociotechnique,” dans la mesure où elle est profondément liée aux contextes et aux situations dans lesquels elle est déployée. Les algorithmes de recommandation, par exemple, évoluent en fonction des pratiques d'utilisation en raison de l'activité des utilisateurs et des données. Ce fait permet l'expérimentation, le bricolage et l'observation des algorithmes par les chercheurs.

Approches expérimentales pour comprendre l'IA

En résumé, évaluer comment fonctionne l'IA est un problème complexe : le terme IA est utilisé de manière libérale pour désigner une variété de processus techniques pilotés par des philosophies de l'esprit ; l'IA est historiquement contrainte ; les modèles d'IA sont des secrets propriétaires ; et l'IA n'est pas intrinsèquement un objet technique stable, mais plutôt sociotechnique. Par conséquent, tirer sur les fils de la façon dont l'IA intégrée fonctionne est épineux, mais pas impossible. Pour ce faire, il faut non seulement évaluer la fonction technique de l'IA, mais aussi le contexte d'utilisation, ainsi que la manière dont l'IA est encadrée dans les discours par les principales structures de pouvoir.

L'IA et l'apprentissage automatique redéfinissent la perception des machines, améliorant l'automatisation et transformant les interactions entre les humains et les machines.
L'IA et l'apprentissage automatique redéfinissent la perception des machines, améliorant l'automatisation et transformant les interactions homme-machine. Photo par Ars Electronica (CC-BY-NC-ND).

Les chercheurs se sont récemment tournés vers des stratégies plus expérimentales pour examiner la complexité des processus algorithmiques intégrés. Cela inclut de considérer la nature relationnelle des algorithmes, comment les humains et les machines sont entrelacés dans des relations matérielles, politiques, économiques et organisationnelles complexes, et comment les algorithmes font partie de vastes schémas de signification et de pratique culturelle qui peuvent être engagés empiriquement. Plus précisément, j'ai cherché à accéder à l'IA d'apprentissage automatique intégrée de Facebook et TikTok en tant qu'“appareil matériel-discursif.”

Cela a nécessité de considérer les discours officiels entourant les techniques d'IA de ces plateformes comme une structure de pouvoir en termes de ce qui est visible, dicible et connaissable à propos de l'IA, ainsi que des informations sur la manière dont l'IA est intégrée dans ces plateformes via des algorithmes, des ensembles de données, des utilisateurs, des plateformes, des infrastructures, des modérateurs, etc. En tant que tel, l'utilisation de l'IA dans le cadre de Facebook et TikTok démontre que l'IA n'existe pas isolément en tant qu'objet technique stable, mais qu'elle est mieux comprise comme un processus continu reposant sur des stratégies d'acceptation via des techniques discursives et les arrangements matériels changeants de l'intégration quotidienne.

La relation amour-haine avec Facebook et TikTok

Facebook et TikTok sont emblématiques de notre relation amour-haine avec les plateformes. Le potentiel de ces réseaux sociaux pour rassembler les gens et favoriser de nouvelles connexions est souvent à juste titre opposé à des critiques bien fondées et à une aura d'infamie.

Facebook est populaire depuis deux décennies, tandis que la montée en puissance de TikTok est relativement récente. La démographie de Facebook est désormais plus âgée, tandis que TikTok est emblématique des interactions numériques des jeunes générations. Pourtant, les deux plateformes partagent des controverses.

Facebook est au centre des débats concernant les préjugés, la propagation de la désinformation, la manipulation politique, et les pratiques de partage de données contraires à l'éthique. De la même manière, TikTok a également été critiqué et a même été interdit dans certains pays en raison de sa relation perçue avec le Parti communiste chinois et de ses pratiques de collecte de données.

Transparence et réalités de la modération par l'IA

Facebook et TikTok ont chacun lancé des initiatives de transparence fournissant des détails sur le fonctionnement des algorithmes d'apprentissage automatique intégrés aux plateformes.

Ces initiatives, ainsi que les déclarations et commentaires des représentants des plateformes, ainsi que des informations supplémentaires sur le fonctionnement des algorithmes sur chaque plateforme, fournissent un aperçu rare de la manière dont ces plateformes articulent leur utilisation de l'apprentissage automatique, ce qui contredit souvent certaines réalités de ces processus sociotechniques.

Il existe une ambiguïté intentionnelle autour de l'IA qui profite aux entreprises technologiques.

Par exemple, Facebook a beaucoup investi dans l'IA, y compris le lancement d'outils d'IA open-source et la promotion de son système d'IA Rosetta comme clé pour modérer le contenu problématique qui, s'il n'est pas contrôlé, peut facilement circuler sur la plateforme. Des détails supplémentaires sur la manière dont Facebook utilise l'IA pour modérer le contenu jettent un peu de lumière sur la façon dont le processus a évolué au fil du temps.

Les publications contenant potentiellement du contenu nuisible sont signalées, soit par les utilisateurs, soit par des filtres d'apprentissage automatique ; ensuite, un modérateur humain trie les publications signalées pour les supprimer. De plus, alors que ce processus fonctionnait chronologiquement dans le passé, dans le sens où les publications étaient traitées dans l'ordre où elles étaient signalées, les nouveaux algorithmes de Facebook priorisent ce que les modérateurs doivent voir en premier en fonction de critères de viralité, de gravité et de la probabilité qu'une publication enfreigne les règles de la plateforme.

Les limites de l'IA de Facebook

Peut-être le plus intéressant de tout est de constater les limites de l'utilisation de l'IA par Facebook. Les filtres d'apprentissage automatique de Facebook analysent les publications via des “embeddings d'intégrité des publications entières” (WPIE), qui évaluent divers éléments d'une publication donnée. Mais décomposer les éléments des publications en points de données distincts qui sont comparés à des cas précédents signifie que l'IA de Facebook est incapable de déterminer ce que révèlent les images, les légendes et les relations avec l'auteur.

An image showing the Facebook logo on a large screen in the background, with a smartphone in the foreground displaying a picture of a prominent figure, symbolizing the intersection of AI-driven social media algorithms and high-profile individuals in online discourse
Les algorithmes d'IA de Facebook jouent un rôle crucial dans l'influence de l'opinion publique. Photo par Book Catalog.

Par exemple, une photo de carrés de Rice Krispies étiquetés “friandises spéciales” pourrait être un raccourci pour des comestibles au THC ou simplement des pâtisseries délicieuses. C'est à un modérateur humain d'appliquer un raisonnement critique pour déterminer si le contenu signalé est réellement un problème méritant d'être supprimé.

Cet exemple est relativement trivial ; cependant, ces modérateurs humains, rendus intentionnellement invisibles par les plateformes, sont exposés à certains des contenus les plus horribles publiés sur le web, souvent pour des salaires bas et sans soutien psychologique.

L'algorithme de TikTok : Succès et limites

L'enquête sur l'IA d'apprentissage automatique de TikTok soulève des problèmes similaires. En raison des controverses entourant l'utilisation des données par la plateforme, TikTok a été relativement transparent concernant son algorithme.

L'entreprise note que les recommandations sont basées sur des facteurs tels que les interactions des utilisateurs (vidéos aimées ou partagées, comptes suivis, commentaires publiés), les informations sur la vidéo (légendes, sons, hashtags) et les paramètres du compte et de l'appareil (préférences linguistiques, type d'appareil, paramètres du pays).

Il a été spéculé que l'IA de TikTok pourrait reconnaître des images dans les vidéos téléchargées pour la catégorisation, la recommandation et la modération. Cependant, il semble que, comme YouTube et Facebook, les modèles d'apprentissage automatique de TikTok reposent principalement sur les métadonnées telles que les descriptions, les tags, l'heure et le lieu des téléchargements de vidéos. En d'autres termes, TikTok utilise l'IA pour la recommandation, la sélection et la personnalisation, tout comme les autres plateformes. Il le fait simplement de manière plus efficace.

L'illusion de l'indépendance de l'IA

Un aspect notable de TikTok est que la plateforme souligne comment l'algorithme propriétaire de l'entreprise interrompt les schémas répétitifs et le contenu dupliqué pour diversifier les recommandations et “éclater les bulles de filtre.”

La recherche et l'expérimentation sur la propagation de contenu politique radicalisé et controversé sur la plateforme ont révélé que la réalité de l'algorithme éclatant de bulle de TikTok et la modération de contenu laissent à désirer. Des documents divulgués sur les directives pour les modérateurs humains ont révélé que TikTok visait à supprimer le contenu des utilisateurs qui ont, ou semblent avoir, une “forme corporelle anormale.”

Cela inclut les utilisateurs décrits comme “enrobés,” “obèses ou trop maigres,” ayant un “mauvais visage” ou des “déformations faciales.” Les directives ciblaient également les “personnes âgées avec trop de rides” et ceux qui filmaient des vidéos dans des environnements considérés comme “miteux,” “délabrés,” “bidonvilles” ou “champs ruraux.” La plateforme était également prête à supprimer du contenu politique pour apaiser certains gouvernements.

En somme, l'IA d'apprentissage automatique est déployée différemment sur Facebook et TikTok, même si ces modèles fonctionnent souvent vers des objectifs similaires. Malgré les promesses de l'IA, accessibles via le positionnement discursif des déclarations et des représentants de la plateforme, les réalités matérielles du fonctionnement de l'apprentissage automatique ne répondent souvent pas aux attentes.

Quelle que soit la plateforme, la modération humaine (ainsi que les données, la formation et la programmation créées par des humains) est inextricablement liée à l'IA. Et peut-être plus important encore, ce serait une exagération de considérer les modèles algorithmiques axés sur les données comme “intelligents” au sens où il existerait une quelconque pensée critique ou même une fiabilité particulièrement impressionnante.

L'avenir de l'IA au quotidien

Le battage médiatique est difficile à ignorer. Il est indéniablement amusant d'imaginer les possibilités d'un avenir propulsé par l'IA, dans lequel les modèles algorithmiques remplacent les tâches fastidieuses et banales, résolvent des problèmes complexes et libèrent les humains de la monotonie. Les entreprises technologiques aimeraient faire croire au public que notre destin alimenté par l'IA est imminent, mais la réalité est bien plus compliquée.

L'IA contemporaine peut être impressionnante et même utile par moments, mais elle est encore loin de l'intelligence humaine. Ces modèles sont aptes à résoudre certains types de problèmes fermés avec des objectifs clairs—Deep Blue a rivalisé avec les maîtres d'échecs il y a des décennies. Cependant, des tâches comme la modération des discours de haine sur les plateformes ne sont pas des jeux avec des permutations limitées ; ce sont des problèmes complexes impliquant des connaissances historiques et contemporaines, du jugement, du contexte et de la pensée critique. À l'heure actuelle, ce sont là quelques-uns des nombreux problèmes que l'apprentissage automatique ne peut pas facilement résoudre, malgré les récits contraires des grandes entreprises technologiques.

Au milieu de ce que beaucoup considèrent comme une bulle de l'IA (peut-être une bulle qui montre des signes d'éclatement), il est plus essentiel que jamais d'interroger les appareils discursifs et matériels des modèles d'apprentissage automatique intégrés. Comme mentionné précédemment, il existe une ambiguïté intentionnelle autour de l'IA qui profite aux entreprises technologiques. Cette opacité contribue à des discussions désordonnées où des termes comme algorithmes, apprentissage automatique, IA et big data sont utilisés de manière interchangeable pour décrire des processus informatiques infrastructurels et intégrés.

Plus inquiétant encore, l'impénétrabilité de l'IA conduit à des affirmations audacieuses, à la confusion et à une dépendance générale excessive à l'idée que “la technologie résoudra tout.” Par exemple, les récents commentaires de Bill Gates suggèrent que l'IA résoudra le problème de la demande énergétique des centres de données alimentant l'IA. Ou, comme brièvement résumé ici, les affirmations d'une modération réussie par l'IA par Facebook et TikTok, alors que les résultats réels sont bien plus mitigés.

Ce qui nous reste est une situation intentionnellement obscurcie—une situation qui nécessite d'aller au-delà des cycles de battage médiatique pour examiner de plus près l'IA d'apprentissage automatique intégrée. La recherche contemporaine offre de nouvelles stratégies pour envisager comment les processus algorithmiques sont à la fois sociaux et techniques, ainsi que de nouvelles façons d'accéder à la nature changeante de l'apprentissage automatique intégré. La tâche continue pour les chercheurs est de résister à la tentation de positionner l'IA comme une entité technique stable ou de croire aux récits des avantages unilatéraux de l'IA. Au lieu de cela, ils devraient examiner les arrangements matériels-discursifs continus de ce qu'est l'IA, de ce que l'IA devient, et de la manière dont l'IA est intégrée dans les pratiques quotidiennes.

Comment citer cet article

DON’T MISS AN ARTICLE

We don’t spam! Read our privacy policy for more info.

Partager cet article
Professeur adjoint au Département d'Études en Communication et professeur affilié à l'École des Sciences des Données de l'Université de Caroline du Nord à Charlotte. Ses intérêts de recherche se situent à l'intersection des médias mobiles, des médias en streaming, des big data et de l'intelligence artificielle. Le travail de Justin a été publié dans des revues telles que AI & Society, Mobile Media & Communication, Information, Communication & Society, et Critical Studies in Media Communication. Pour plus d'informations, consultez : https://www.linkedin.com/in/justingrandinetti/